Adattisztítás

Legyen az Ön vállalata is azon cégek között, akik a DSS Consulting Kft. adattisztítási megoldásainak köszönhetően több tíz millió forintot spórolnak meg évente!

Az üzleti siker egyik kulcstényezője a vállalati adatvagyon, és az arra épülő információbázis minősége. Az üzletmenetre, a vállalat ügyfél- és termékkörére vonatkozó információk csak akkor értékesek, ha pontosak, teljes körűek, megbízhatóak és naprakészek: azaz, ha minőségük kielégíti az értékesítők, az elemzők, a döntéshozók és minden egyéb felhasználói kör igényeit.

A napi ügymenethez kapcsolódóan fontos, hogy a vállalaton belül felismerjék az adatminőségből eredő kockázatokat, költségeket. A nem megfelelő minőségű információk birtokában végrehajtott tevékenységekkel együtt jár egy jelentős látens költség, melyet a vállalat folyamatosan megfizet anélkül, hogy ez kimutathatóan megjelenne a költségvetésében. Ilyenek lehetnek például a hiányzó információk utólagos megszerzésének, illetve a pontatlan, hiányos információk helyesbítésének idő- és ráfordításigénye, nem beszélve a hibás adatokon alapuló üzleti döntések következményeiről.

Kapcsolatfelvétel e-mailben Online ajánlatkérés

Adattisztítás

Adatok gyűjtése, tárolása minden szervezetnél felmerül, mint feladat. Az, hogy milyen adatokat kell gyűjteni, függ az adott szervezet tevékenységi körétől, profiljától, de valamilyen adatok gyűjtése biztosan része a működésnek, mint például ügyfeleink személyes vagy céges azonosító adatai, partnereink elérhetőségi adatai, a gyártott termékeink vagy szolgáltatásaink jellemzői, az árukészletünk jellemzői.

Nyilvánvaló az az igényünk, hogy az adataink pontosak, hiánytalanok legyenek. Azonban a tapasztalat azt mutatja, hogy az adatok hiányosak és vannak bennük hibák. Más szóval: az adatok minősége nem kifogástalan. Mit értünk adatminőség alatt? Adatminőség alatt azoknak az elvárásoknak az együttesét értjük, amelyeket a valós világ valamely objektumát az informatikai rendszerben képviselő majd onnan kinyerhető adat és a valóságos objektum közötti eltérés mértékére megfogalmazunk. Ha eltérés nincs vagy az eltérés kicsi, akkor az adat minősége jó.

Az adat minőségét befolyásoló elvárások között - a valós világ leképezésén túl - kiemelt szerepet játszik az adatot gyűjtő szervezet belső működéséből következő igények (pl. tárolandó adatkörök) és a külső szabályozási környezet által előírt törvényi követelmények (pl. névviselési törvény által meghatározott név struktúra, adószám képzési algoritmus).

Mit tehetünk, ha adataink minősége nem felel meg céljainknak? Adattisztítási szolgáltatások segítségével javítsunk a minőségén! Az adatbázisokban található nem megfelelő minőségű, helytelen értékeket tartalmazó működési adatok javítására, "tisztítására", a helyes értékek meghatározására két fő megoldási modell létezik:

  • Algoritmikus vizsgálat, ahol a vizsgált adaton bizonyos matematikai algoritmusok használatával kikövetkeztethető, megállapítható a helyes érték (pl: CDV ellenőrzés, mezők konzisztenciájának ellenőrzése)
  • Referencia adatbázis használata, ahol a vizsgált adat egy helyes értékeket tartalmazó, hiteles referencia adatbázissal kerül összeghasonlításra, és az alapján állapítjuk meg a helyes értéket (Pl. utónevek adatbázisa, telefon körzetszámok adatbázisa, elgépelt vagy rövidített településnevek adatbázisa.)
image

A gyakran használt adatfajták tekintetében vannak már kialakult, a gyakorlatban elterjedten használt minőségi követelmények. Ezeket lásd az Adattisztítási megoldások fejezetnél.

Adattisztítási megoldások

Névtisztítás

A névtisztítás lényege a névlistánkon szereplő nevek hibáinak felderítése és megszüntetése. A teljes neveket részeire, elemeire (előtag, családi név, keresztnév stb.) bontjuk és elemenként javítjuk. A javított elemeket összefűzve megkapjuk a javított teljes nevet, de a név javított részeit önállóan is felhasználhatjuk. Például egy javított keresztnév alapján megállapíthatjuk az adott személy nemét, meghatározhatjuk névnapját. A név előtagja vagy utótagja utalhat egy tudományos fokozatra, ami adott esetben értékes információ lehet. Ha a névadatokat egy korszerű informatikai rendszerbe akarjuk tölteni, akkor pedig általában már követelmény, hogy a teljes név elemenként rendelkezésünkre álljon.

Az előtagok és utótagok valamint a keresztnevek referenciaszótárak felhasználásával javíthatóak. Magyar nevek esetében, a keresztnevek vizsgálatakor az MTA Nyelvtudományi Intézete által anyakönyvi bejegyzésre alkalmasnak minősített utónevek jegyzéke alapján dolgozunk. Külföldi nevek esetében hasonló, hiteles forrásokból származó referenciákat alkalmazunk. A teljes nevek szerkezetének vizsgálatakor 1982. évi 17. számú törvényerejű rendeletben, a névviselésre vonatkozó rész szerint járunk el.

Címtisztítás

Címtisztítás során a címeket egységes formátumúra alakítjuk, bennük az elgépeléseket, hibákat javítjuk, a hiányosságokat kiegészítjük, a régi utcaneveket az aktuálisra cseréljük. Ezzel a szolgáltatással a címlisták hiányosságai és elavultsága megszűntethetők. A rövidítések feloldása tovább emeli a címadatok megbízhatóságát.

A címek javításakor is az elemekre bontás és elemenként történő javítás a célravezető. A cím elemeit (irányítószám, település, közterület, stb.) javításuk után összefűzve megkapjuk a javított, teljes címet. A cím elemeire bontása a címadatok új informatikai rendszerekbe történő migrációja során ma már elengedhetetlen kívánalom. Az újabb fejlesztésű rendszerekben ugyanis a címek elemeit már önálló mezőkben tároljuk, ellentétben a régi rendszerekre jellemző, ömlesztett módon történő tárolással. Ez a megoldás lehetőséget ad arra is, hogy lakóhely vagy telephely szerint elkülönített célcsoportokat azonosítsunk ügyfeleink között.

A címek helyességének megállapítása, illetve címadatok javításához referencia adatbázist használunk.

E-mail címek tisztítása

Az adatbázisunkban tárolt e-mail címek egy része általában rögzítési, gépelési hiba miatt hibás. Ezekre a címekre nem tudunk e-mail-t küldeni. A hibák részben, különösen a tipikus hibák, javíthatók. Javított e-mail címeink érvényes, használható adatokká válnak.

Az e-mail címek javításakor mind algoritmikus feldolgozás, mind referencia-adatbázissal történő összehasonlítás végezhető.

Geokódolás

Számos üzleti feladat merül fel, mikor a címeket szükséges térképen is megjeleníteni, melyhez azokat geokódokkal szükséges ellátni. A geokódolás folyamata során a rendelkezésünkre bocsátott címekettisztítjuk és a címpont-alapú és/vagy interpolációs geokódolási eljárásaink segítségével szélességi és hosszúsági koordinátákkal látjuk el. A címek geokódolását speciális térképi adatbázis felhasználáa teszilehetővé, amely tartalmazza az utcaházszámokat is.

image

A geokódolni kívánt cím részletezettségétől függően különböző geokódolási szinteket tudunk elérni (házszám-, utca-, város szintű geokód), így a teljes adatbázis geokódolási pontossága függ a címekkitöltöttségétől és tisztítás utáni minőségétől. Amennyiben szükséges, lehetőség van az üzletileg esetleg nem elég pontosnak ítélt város (esetleg utca) szintű geokódolt címek manuális geokódolására. Ehhez acímeket elérhetővé tudjuk tenni egy speciális webes felületen, ahol a címet vagy térképen elhelyezve, vagy szövegesen javítva a címeket pontosítani lehet a találatot.

Telefonszámok tisztítása

A telefonszámok tisztítása során a formai ellenőrzésekkel megvizsgáljuk, hogy az adott telefonszám megfelel-e a Magyarországon használatos telefonszámok formátumának, melyben megkülönböztetünk budapesti, vidéki, mobil- valamint közérdekű és speciális telefonszámokat. Ezen kívül tartalmi ellenőrzés mentén a magyarországi hivatalos körzetszám referencia adatbázis alapján validáljuk a körzetszámokat és szabványos formátumúra alakítjuk a telefonszámokat.

image

Okmányszámok, azonosítók tisztítása

Magyarországon a különböző, személyazonosításra alkalmas okmányok (pl. személyazonosító igazolvány száma, útlevélszám) és egyéb azonosítók (pl. adóazonosító jel, TAJ), valamint a vállalkozások azonosítására alkalmas azonosítók (pl. adószám, cégjegyzékszám, TEÁOR-kód) illetve a bankszámlaszámok részben algoritmikusan ellenőrizhetők, részben referenciaszótárhoz hasonlíthatók.

Központi adatvalidációs megoldás

Termékek

A DSS központi adat validációs megoldása a hazai piacon jelenleg elérhető, legfejlettebb és legteljesebb körű eszközrendszer a megfelelő adatminőség elérése érdekében. A saját fejlesztésű, Quality Monitor technológiára épülő megoldás egymásra épülő lépcsőfokokra épül, melynek köszönhetően az adatminőségi szempontból különböző szinten elhelyezkedő vállalatok számára is hatékony belépési lehetőséget kínálunk. Jellemzően a projektjeink egy adatminőségi felméréssel indulnak, hogy ezt az érettségi szintet és az elvégzendő feladatokat megállapíthassuk. Ugyanakkor a módszertan nem zárja ki, hogy egy ügyfél például egy nemrégiben megvalósított ügyféltörzs tisztítást követően a real-time validálás bevezetését helyezze fókuszba annak érdekében, hogy ellenőrzötten és javítottan rögzüljenek az újonnan keletkező törzsadatok.

A real time validálás az adattisztítás legújabb módszere, mely preventív módon még az adatok bekerülés és tárolása előtt ellenőrzi és javítja a szervezet számára kulcsfontosságú adatokat. A bevezetése során felmérjük a szervezet által használt egyes adatbeviteli csatornákat, ill. az adatáramlást az ügyféltörzsekig, melyet követően az online adatbeviteli felületekre, illetve az offline batch betöltőkre kerül kiépítésre az iQualidator real-time adat validációs megoldásunk.

image

A központi adatvalidációs megoldás biztosítja, hogy minden egyes adatbeviteli csatornán beérkező adat ugyanolyan módon és módszerekkel kerüljön ellenőrzés és javítás alá biztosítva a kívánt adatminőségi szintet.

A megoldás szakít azzal az elképzeléssel, hogy az adattisztítási tevékenységet folyamatosan újra és újra el kell végzi, hiszen a piacon egyedülálló módon már arra kínál hatékony megoldást, hogy csak jó minőségű adatok keletkezhessenek.

Megoldásunk egyszerűen illeszthető a webes front-end felületekhez, ill. megfelelő interfészekkel rendelkezik egyéb alkalmazásokhoz is, így rövid idő alatt bevezethető, gyorsan és hatékonyan működésre bírható.

Duplikátumok

Az adattisztítás egyik legfontosabb célja általában a rendszerekben megtalálható duplikátumok kimutatása és feldolgozása. Természetesen, amikor duplikációról beszélünk, akkor általában tudjuk, hogy nem csak két rekord lehet egyforma, hanem akár több példányban is szerepelhet egy entitás az adatbázisban. Tehát a helyes elnevezés multiplikáció lenne, azonban az általános elterjedt szóhasználat és a könnyebb értelmezés miatt a duplikációt használjuk.

image

A duplikátumok felderítése annál eredményesebb lesz, minél jobb minőségűek az azonosításra leginkább használható adatok. Például természetes személyek esetében a név, születési hely, születési dátum, jogi személyek esetében az adószám, a cégjegyzékszám tekinthető azonosításra leginkább alkalmas adatnak. Ha ezek az adatok nem megfelelő minőségűek, akkor duplikátum felderítés előtt erősen ajánlott adattisztítást végezni. Természetesen az adatok sohasem lesznek hibátlanok, tehát a duplikátumkeresést végső soron többé-kevésbé hiányos, hibás adatokon kell elvégezni. Ez azt jelenti, hogy nem lehet a megfelelő mezők értékének pontos egyezőségére alapozni a keresést, hanem hasonlósági kritériumokat kell megfogalmazni. Jó duplikátumkereső algoritmusok használatával még mérsékelten hibás adatok között is meg lehet találni a valószínű duplikátumcsoportokat, amelyek nagy részét az emberi felülvizsgálat is igazolja.

Duplikáció keresése

Duplikáció keresés során algoritmikus módszerekkel felderítjük és kilistázzuk, hogy melyek az azonos entitások, azaz ügyfelek, illetve termékek. Ehhez duplikátumcsoportokat képzünk, amin az azonos egyedhez tartozó, egynél nagyobb elemű rekordhalmazt értjük. A feladat az azonos egyedet képviselő rekordok csoportokba sorolása.

Master record képzése

Ha nem cél vagy nem lehetséges a teljes deduplikálás, pl. mert több megmaradó rendszerben szerepelnek a duplikátumcsoport egyes elemei, akkor célszerű miden csoporthoz egy-egy ún. master recordot készíteni. A master record alapja a legnagyobb prioritású rendszerben szereplő rekord lehet, amit szükség és indokoltság esetén a többi rendszer adataiból is frissíthetünk, kiegészíthetünk. A master record általában a csak legfontosabb ügyfél(azonosító) adatokat tartalmazza, és esetleg az üzleti tevékenység szempontjából legfontosabb néhány további adatot.

Duplikáció feloldása (deduplikálás)

A duplikátumok megtalálása után következik a duplikátumok megszüntetése. Konkrétan, minden duplikátumcsoportban kijelöljük a megtartandó rekordot, a többit pedig megszüntetjük. A megtartandó rekord kijelölése történhet azon az alapon, hogy melyiknek legjobb minőségűek az adatai, de néha ennél bonyolultabb a feladat. Azokat az entitásokat, pl. termékeket, amelyek a duplikátumcsoport egyes rekordjaihoz tartoznak, a megszüntetendő rekordokról le kell választani, és a megmaradó rekordhoz kell kötni. Az esetek egy részében itt technikai korlátokba ütközünk. Pl. előfordulhat, hogy valamely terméket nem lehet vagy rentábilisan nem lehet átsorolni másik ügyfélrekordhoz: ilyenkor kényszerűen az a rekord lesz a megmaradó, amelyhez eleve kapcsolódik ilyen termék.

Adatminőség-biztosítás

Az üzleti siker egyik kulcstényezője a vállalati adatvagyon, és az arra épülő információbázis minősége. Az üzletmenetre, a vállalat ügyfél és termékkörére vonatkozó információ pedig csak akkor értékes, ha pontos, teljeskörű, megbízható és naprakész: azaz, ha minősége kielégíti az értékesítők, az elemzők és a döntéshozók információs igényeit. Különböző szituációkban éleződhet ki az üzleti folyamatok alapjául szolgáló adatok minőségére vonatkozó igény. Itt bemutatjuk, összefoglaljuk azokat az eseteket, ahol az adatminőség nem elhanyagolható és befolyásolhatja a vállalatok jövedelmezőségét.

Adattisztítás, CRM

A vállalati információs architektúra központi eleme tipikusan a vállalati adattár, amelyben az adatokat a vállalat alaprendszereiből – tranzakciós rendszerek –, ill. külső adatforrásokból összegyűjtve, tisztítva és konszolidálva, az üzleti igényeknek megfelelő módon tárolják. Az adattárra épülnek rá azok a döntéstámogató eszközök, amelyek automatizálják a jelentésrendszerek készítését, lehetővé tesznek gyors, eseti elemzéseket és képesek feltárni az üzleti adatok közötti rejtett összefüggéseket. A központi adattár az egyik fő alapeleme a vállalati szintű CRM megoldásoknak is.

A gyakorlati tapasztalatok azt mutatják, hogy a vállalati adatvagyon legtöbb esetben nem kellő minőségű egy adattárház építéséhez vagy egy CRM rendszer bevezetéséhez. Hiába megfelelő (vagy inkább elfogadható) az adatminőség az egyes vállalati alaprendszerek szempontjából, ebből nem következik, hogy az adattárház és a CRM rendszer számára is elégséges. Az adattárházak és a CRM megoldások is tipikusan több adatforrásra támaszkodva működnek, és a különböző adatforrások adatbázisainak eltérő struktúrái, adattartalmi problémái, az összevont adattartalom redundanciái az adattárház és CRM rendszerek használhatóságát veszélyeztetik.

Ezek a problémák csak részben, főleg kvalitatív szinten ismertek a vállalatok szakemberei előtt, így a probléma valódi súlya és várható következményei csak az adattárház építési és CRM bevezetési projektek késői fázisában válnak nyilvánvalóvá, amikor a megtehető korrekciós alternatívák száma és tartalma már erősen behatárolt, ugyanakkor a korrekciók költsége hatványozottan nagyobb mintha azt jó előre elvégezték volna.

Központi ügyféltörzs, MDM

Egy központi ügyféltörzs igen fontos jellemzője, hogy minden kapcsolódó rendszerből tartalmazza az ügyfelek azonosító adatait, az adott rendszerbeli azonosítójukkal együtt. Egy ügyféltörzs kialakítása előtt szükséges egy legalább olyan mélységű adattisztítást elvégezni, amely lehetővé teszi először a rendszereken belüli majd a rendszerek közötti duplikátumok feltárását és összevonását. A feltárt duplikátumok kapnak egy master azonosítót, és ezzel együtt kerülnek be a forrásrendszerek adatai a központi ügyféltörzsbe. A továbbiakban ismert lesz a rendszer használói előtt, hogy az egyes rendszereken belül ugyanazt az ügyfelet mely rekordok azonosítják.

Migráció

A mai világ rohamléptű informatikai fejlesztéseivel lépést tartani kívánó vállalatoknál, szervezeteknél mostanában gyakran felmerül az az igény, hogy a meglévő termék-, illetve adatkezelő rendszereiket korszerűbbekre cseréljék. Az új rendszerek bevezetésénél elkerülhetetlen lépés a kiváltandó rendszerekben tárolt adatok átmigrálása. Az adatok rendszerek közötti áttöltése folyamán hasonló adatminőségi problémákkal szembesülhetnek, mint a CRM vagy adattárház rendszerek kialakítása során. A migráció sikeressége érdekében fel kell készíteni az adatokat az áttöltésre és lehetőség szerint kezelni kell az adatminőségi problémákat, adattartalmi hibákat, duplikátumokat, redundanciákat. Amennyiben az adatok minőségének javítására nem helyeznek megfelelő hangsúlyt, akkor az újonnan bevezetett rendszer hatásfoka jelentősen csökkenhet és az üzleti területek sem fogják úgy érezni, hogy az elvárásaiknak megfelelő az alkalmazás.

Napi üzletmenet

Az adattárházaktól, CRM rendszerektől és a migrációktól függetlenül, a nagy mennyiségű ügyfél-, illetve termékadatokat kezelő vállalatok, szervezetek számára a napi, normál üzletmenet során is jelenthet problémát az adatok minősége és a nem megfelelően meghatározott adatkezelési folyamatok.

Könnyen előfordulhatnak olyan esetek, amikor a tranzakcióra jelentkező ügyfelet a rendelkezésre álló adatok alapján nem lehet egyértelműen azonosítani, emiatt a kiszolgálás gördülékenysége, és biztonsága csorbát szenved. Például pénzintézeteknél készpénzfelvétel során, az ügyfélazonosításhoz szükséges információk a termékkezelő rendszerekben hiányosak és az ügyféldokumentáció alapján kell az ügyintézőnek megerősítést találni a kifizetés jogosságáról. Az ügyfelek számára ezek az ellenőrzések felesleges várakozásokat jelentenek, nem is beszélve arról, hogy milyen konfliktushelyzetek alakulhatnak ki, ha adott bankfiókban nem is állnak rendelkezésre vagy hiányosak az ügyfélkartonok. Az ilyen, adathiányra, adatkezelési problémákra visszavezethető esetek felesleges munka, idő és "ügyintézői" energia ráfordításokat jelentenek és extrémebb szituációkban akár ügyfélvesztéssel is járhatnak.

Hasonló nehézségeket jelenthetnek termékadatoknál a nem megfelelően kezelt cikktörzsek. Leltározásnál, a készletek feltöltésénél anyagi vonzatokkal járó problémákat okozhatnak azok az esetek, amikor ugyanaz a termék többféleképpen szerepel az adatbázisban. Ha a termék egyik nyilvántartása szerint a készlet a minimumon, a másik szerint a maximumon van, akkor az első verzió alapján történő rendelés akár komoly problémákat is okozhat, főleg ha romlandó áruról van szó.

Látens költségek

A napi ügymenethez kapcsolódva fontos, hogy a vállalaton belül felismerjék az adatminőségből eredő kockázatokat, költségeket.

A nem megfelelő minőségű információkon alapuló tevékenységek végzésével együtt jár egy jelentős látens költség, melyet a vállalat folyamatosan megfizet anélkül, hogy ez kimutathatóan megjelenne a költségek között. A látens költségek okai:

  • a hiányzó információk utólagos megszerzésének idő- és ráfordítás­igénye,
  • a pontatlan, hiányos információk helyesbítésének idő- és ráfordítás­igénye.

Ezzel szemben áll az eredetileg is megfelelő minőségű információkkal kapcsolatos, jóval alacsonyabb költség, beleértve a folyamatos minőségbiztosítás költségeit is.

Külön említendő az a kár, ami a hibás adatokon alapuló, szükségszerűen hibás lépéseket kiváltó üzleti döntések eredménye. Ezen eseteknek egyszerű példái lehetnek a hibás címekre kiküldött marketinglevelek vagy az ügyfélkört egy újonnan bevezetendő termékkel megcélzandó, hibás adatokból levont, rossz következtetéssel kiválasztó eljárás.

Az adatminőség biztosítása

Akár adattárház, vagy CRM rendszerek bevezetéséről, akár migrációról, akár a napi üzletmenet biztonságáról van szó, mindenképpen szem előtt kell tartani az adatok megfelelő minőségű nyilvántartását és kezelését. Philip B. Crosby-tól származó idézet tömören összefoglalja az adatminőség hiányában rejlő kockázatokat, amit nem ajánlatos a mai "információs" társadalomban a szőnyeg alá söpörni.

A minőség nem kerül pénzbe. Bár nem kapjuk ajándékba, mégsem kerül semmibe. Ami pénzbe, méghozzá sok pénzbe kerül, az a minőség hiánya, azaz minden olyan tevékenység költsége, amit azért kell utólag végrehajtani, mert ugyanazt a munkát korábban nem megfelelően végeztük el.

TIQM / TQdM

Total Information Quality Management (TIQM)

A TIQM (korábban TQdM - Total Qualty data Management) a nemzetközileg is elismert Larry P. English által, az adatminőségi problémákra és kezelésükre kidolgozott információminőség-biztosítási módszertan.

Az információminőség-biztosítás feladata

Larry P. English szerint az információminőség-biztosítás feladata:

Következetesen elérni az információval dolgozó személyek elvárásait az információn és információs szolgáltatásokon keresztül.

A meghatározás értelmezésében segít, ha részeire bontva vizsgáljuk meg a jelentéstartalmat:

  • Következetesen: ha egy információs szolgáltatás – pl. egy árlista – időben változó minőségű, akkor kevéssé lesz megbízható. A minőségi információ fontos jellemzője, hogy mindig számíthatunk rá, és nem szükséges az információnak "utánajárni", ellenőrizni.
  • Elérni: nem feltétlenül szükséges túlszárnyalni. Legtöbbször az információval dolgozó személynek tökéletesen megfelel, ha az információ annyit, és nem többet tartalmaz, mint amennyire szüksége van.
  • Az információval dolgozó személyek elvárásait: lényeges, hogy az információ minőségét az határozza meg, aki használja. Nincs értelme az olyan minőségi kritériumnak, amelyet az információs értéklánc folyamataitól távol álló személy határoz meg. Természetesen egy szervezeten belül többen is dolgozhatnak ugyanazzal az információval. Ilyenkor szükséges lehet az eltérő – esetleg ellentmondó – elvárások harmonizációja.

Információminőség, mint a termékek jellegzetessége

Az információminőség fenti definíciójában több fontos dolog húzódik meg:

  • Az információ termék, amelyet kategorizálhatunk "minőségi" és "nem megfelelő minőségű" jelzőkkel. Az információ az üzleti folyamatok eredménye, amelyek a létrejöttét és karbantartását szabályozzák, akár adatbázisban, akár papíron vagy más formában tároljuk. Az információ korában az adatot minden formában közvetlen termékként kell kezelni, s nem más üzleti folyamatok melléktermékeként, ahogyan azt korábban tekintették. Az információ melléktermékként való megközelítése "a hangsúlyt nem a megfelelő célra helyezi, általában a rendszerre, s nem a végső célra, az információra."
  • Mivel az információ termék, "az üzleti folyamatokra ugyanazokat a minőségjavítási elveket lehet alkalmazni az információs termék minőségének javítása érdekében, mint amelyeket a gyártási folyamatokra alkalmaznak a gyártási termékek minőségének javításáért"
  • Az információminőség csak az információt felhasználó személy összefüggésében létezik. A terméknek csak akkor van értéke, ha a felhasználónak szüksége van rá. Az információnak csak akkor van értéke, ha a szellemi dolgozónak szüksége van rá a saját folyamatainak elvégzéséhez, célja eléréséhez. Csak az információ használói tudják és fogják megítélni az információ minőségét, amely azon múlik, mennyire segíti őket munkájuk során. Shirou Fujita, az NTT DATA cég CEO-ja, az első információ-szolgáltató cég, amely a Deming-díjat [...], elnyerte, mondta: "Ebben a szakmában [információs rendszerek] túl gyakran hangsúlyozzuk a technológiai előrelépéseket anélkül, hogy a felhasználói kör igényeire tekintettel lennénk. … Az információs rendszereknek sokkal jobbakká kell válniuk és sokkal jobban ki kell szolgálniuk a társadalom igényeit."
  • Az információ a szállító-felhasználói értéklánc részeként és kapcsolatában létezik. A szállítók az információ előállítói, akik különböző folyamatokat végeznek el az információ megteremtése érdekében. Az adat közvetítők veszik az adatot az egyik formában – például papíron – és átírják elektronikus formába. Közvetítő szerepet játszanak az információnak a szállítótól a felhasználóig való eljutásának folyamán. A felhasználók belső vagy külső szellemi munkások. A legtöbb ember mindkét szerepet (szállító/felhasználó) betölti. Mint felhasználók, bizonyos adatok alapján más adatokat állítanak elő. Ilyen például a hitelelbíráló, aki a hitelképességi adatok alapján elbírálja a hitelt.
  • Minden folyamatgazda vagy olyan menedzser, aki adatelőállító vagy adatkarbantartó folyamatot irányít, felelős a folyamatai által előállított adatokért, nem csak a fizikai termékekért. A folyamat integritása elválaszthatatlan az előállított termékek integritásától. Továbbá, ez a felelősség kiterjed az információ minőségére, hogy kiszolgálja minden további felhasználó igényeit, nem pedig csak az információt előállító osztály igényeit. Ismerniük kell az összesített információs igényét minden, az információs láncban utánuk következő szellemi dolgozónak, az általuk és folyamataik által menedzselt információs termékekre vonatkozóan. Ennek elmulasztása az információs láncban hátrébb elhelyezkedő dolgozókat arra kényszeríti, hogy saját úton derítsék fel vagy javítsák azon adatokat, amelyeket a kezdeti folyamat során nem rögzítettek megfelelően.