Onze organisatie wil AI implementeren, daarvoor is Databeheer cruciaal. Wat te doen?

Cover stories

Dit artikel biedt een actueel overzicht van de rol van Artificiële Intelligentie (AI) in modern databeheer. In een tijd waarin organisaties steeds meer data genereren en verwerken, wordt de combinatie van AI en effectief databeheer steeds belangrijker voor bedrijfssucces.

Disclaimer: Dit artikel is bedoeld als algemene informatievoorziening en niet als specifiek advies voor individuele situaties. De ontwikkelingen op het gebied van AI en databeheer verlopen snel; raadpleeg altijd de meest recente bronnen en experts voor actuele toepassingen binnen uw organisatie. De genoemde voorbeelden en best practices dienen ter illustratie en kunnen per organisatie en context verschillen.

Let wel, het tijdsplan in de volgende tekst heeft AI als mede-auteur. De kwaliteit van de aanbevelingen kan de nodige vragen oproepen. De voorgestelde aanpak neemt veel tijd en lijkt nogal ingewikkeld. Dit is ook afhankelijk van de specifieke context (zo stelt Stanford professor Brynjolfsson dat organisaties die hun databeheer goed op orde hebben momenteel over 'een goudmijn beschikken').
Uw reactie is welkom.

Voor wie is dit artikel bedoeld?

  • Management en besluitvormers die inzicht willen krijgen in de mogelijkheden van AI voor databeheer
  • IT-professionals die zich willen oriënteren op de integratie van AI in hun databeheerstrategie
  • Professionals die betrokken zijn bij data-gedreven besluitvorming.

AI en Databeheer

Mijn prompt voor ChatGPT o-1 Preview

"Ik werk bij een grote dienstverlenende organisatie, de organisatie die je eerder van advies voorzag. Ik ben verantwoordelijk voor het databeheer van onze organisatie. We overwegen om kunstmatige intelligentie toe te passen in onze organisatiestructuur. We beschikken over veel en verschillende data maar dit is nog ongestructureerd en nauwelijks overzichtelijk. Help me en kom met een plan voor het optimaliseren van de data zodat we effectief en efficiënt AI kunnen implementeren. Ik heb hulp nodig bij het bepalen a/ wat te doen om de data optimaal inzichtelijk te krijgen en b/ wat wordt onze strategie om vervolgens AI te implementeren, en dat inclusief gedetailleerde informatie over stappenplan en tijdskader. Voeg ook andere voor ons interessante aandachtsgebieden toe die ik mogelijk heb gemist."

Deze prompt voor ChatGPT o-1 Preview maak ik nadat ik 2 artikelen las: 'Gener(AI)ting the Future'* waarin CapGemini Stanford prof Erik Brynjolfsson, één van de nog maar weinige experts op dit gebied, aan het woord laat. Brynjolfsson:

"Data is de levensader van machine learning (ML), de basis voor AI, en bedrijfseigen data geeft organisaties een concurrentievoordeel. Dit type voordeel zal voortkomen uit de medewerkers, de bedrijfsvoering, betere dataverzameling en het beschikbaar stellen van die data aan ML-systemen.

Niet alle bedrijven hebben goed werk geleverd met het vastleggen en beheren van data, maar degenen die dat wel hebben gedaan, zullen merken dat ze op een goudmijn zitten. Bedrijven met betere data zullen de grootste winnaars zijn bij deze uitdaging."

*Van dit artikel, dat verder gaat dan alleen databeheer, gaf ik NotebookLM de prompt een podcast te maken; interessant 'gesprek' kan ik je zeggen (inclusief pauzes....).

Het andere artikel dat ik lees staat in the Financial Times Beware the AI bureaucrats:

"Bureaucracy is an artificial environment, in which mastery of a narrow field is enough to exert enormous impact on the wider world, by manipulating the flow of information. If you throw a present-day AI into the messy unstructured world, it will probably not be able to accomplish much — and will certainly not be able to raise a robot army.

But this is like throwing a corporate lawyer into the messy, unstructured savannah. There, the lawyer’s abilities mean nothing, and are no match for an elephant or a lion. But if you first build a bureaucratic system and impose it on the savannah, the lawyer becomes far more powerful than all the world’s lions put together. Nowadays, the very survival of lions depends on lawyers composing and moving documents in labyrinthine bureaucracies.

Crucially, within this labyrinth, AI is likely to become far more powerful than any human lawyer."

Uit ervaring weet ik dat gebrekkig databeheer dé zwakke schakel is voor veel, waarschijnlijk zelfs de meeste, organisaties. Daarom: leg ik de hiervoor aangehaalde prompt voor aan OpenAI's nieuwste versie ChatGPT o-1 Preview.

ChatGPT o-1 Preview:

Hier is een uitgebreide benadering die je kan helpen bij het optimaliseren van je databeheer en het opstellen van een strategie om kunstmatige intelligentie in jullie organisatiestructuur te implementeren.

A. Dataoptimalisatie: Van Ongeorganiseerde Data naar Inzichtelijke Structuur

Om AI effectief te implementeren, is het essentieel om eerst te zorgen voor goed gestructureerde, kwalitatief hoogwaardige data. Een stappenplan voor dataoptimalisatie kan als volgt worden opgezet:

1. Data-inventarisatie en -audit (Tijd: 1-2 maanden)
   - Identificatie van gegevensbronnen: Breng in kaart welke datasets er momenteel binnen de organisatie beschikbaar zijn. Dit omvat zowel gestructureerde als ongestructureerde data.
   - Datakwaliteit beoordelen: Evalueer de consistentie, nauwkeurigheid, volledigheid en tijdigheid van de data.
   - Data-eigenaarschap vaststellen: Wijs data-eigenaren en datastewards aan die verantwoordelijk zijn voor specifieke datasets.

2. Data-opschoning en -normalisatie (Tijd: 2-3 maanden)
   - Opschonen van data: Verwijder duplicaten, onvolledige en irrelevante gegevens, en breng inconsistenties aan het licht. Maak gebruik van datakwaliteitstools om dit proces te ondersteunen.
   - Normalisatie: Zorg voor consistentie in gegevensformaten. Alle gegevens moeten op een uniforme manier worden opgeslagen, zoals het standaardiseren van datumnotaties, valutacodes, enzovoorts.

3. Data-integratie en -centralisatie (Tijd: 3-4 maanden)
   - Dataplatform of 'data lake' opzetten: Integreer al jullie gegevensbronnen in een gecentraliseerd dataplatform (bijv. een data warehouse of data lake). Dit maakt databeheer eenvoudiger en vergemakkelijkt toegang tot gegevens voor AI-initiatieven.
   - Gebruik van ETL-processen (Extract, Transform, Load): Zet ETL-processen op voor het extraheren, transformeren en laden van gegevens uit verschillende bronnen.

4. Data-architectuur en governance (Tijd: 2-3 maanden
   - Data-architectuur definiëren: Ontwerp een flexibele data-architectuur die het gebruik van data in de organisatie ondersteunt. Zorg voor een logische structuur waarin alle data-elementen duidelijk worden vastgelegd.
   - Data governance implementeren: Stel regels en beleid in voor het beheer van data. Dit omvat datakwaliteitsstandaarden, privacyregels en rollen & verantwoordelijkheden binnen databeheer.

5. Data-analyse en verrijking (Tijd: Doorlopend)
   - Data-analyse: Gebruik analysehulpmiddelen om inzichten te verkrijgen en nieuwe datapatronen te ontdekken.
   - Data-verrijking: Combineer jullie data met externe bronnen om meer context te krijgen en AI-modellen te verrijken met relevante informatie.

 B. AI-Strategie: Een Stapsgewijze Implementatie

Zodra de data-omgeving is geoptimaliseerd, kan de AI-implementatie worden ingevoerd. Hieronder een stappenplan:

1. Bepalen van AI-doelen en Use Cases (Tijd: 1-2 maanden)
   - Bepaal businessdoelen: Identificeer welke processen door AI kunnen worden ondersteund of geoptimaliseerd, zoals klantinzichten, procesautomatisering, risicobeoordeling, enzovoorts.
   - Prioriteren van use cases: Identificeer en prioriteer AI-use cases die de grootste waarde opleveren voor de organisatie. Bijvoorbeeld, het opzetten van voorspellende modellen voor klantverloop of het automatiseren van interne rapportages.

2. Technische infrastructuur opzetten (Tijd: 2-4 maanden)
   - Cloud vs On-Premise: Bepaal of AI-infrastructuur beter kan worden uitgevoerd via een cloud-oplossing (bijv. AWS, Azure, Google Cloud) of on-premise.
   - Selectie van AI-platforms en tools: Kies geschikte AI-tools en platforms die passen bij de organisatiebehoeften. Populaire platforms zijn TensorFlow, Azure Machine Learning, en IBM Watson.

3. Datamodellering en training (Tijd: 4-6 maanden)
   - Ontwikkelen van AI-modellen: Ontwikkel AI-modellen voor de geïdentificeerde use cases. Begin met een proefproject om de levensvatbaarheid te testen.
   - Iteratieve modelverbetering: Train en verbeter AI-modellen iteratief door feedback loops op te zetten en modelprestaties te evalueren.

4. Implementatie en integratie (Tijd: 3-6 maanden)
   - Pilotprojecten: Start met pilotprojecten om de AI-modellen in een gecontroleerde omgeving te testen.
   - Integratie in de bestaande workflow: Integreer de AI-oplossingen in de bestaande processen en systemen. Werk hierbij nauw samen met stakeholders om acceptatie te bevorderen.

5. Adoptie en training van medewerkers (Tijd: Doorlopend)
   - Change Management: Leid een veranderingstraject binnen de organisatie door medewerkers te betrekken bij de implementatie. Communiceer duidelijk wat AI kan bijdragen en zorg ervoor dat mensen vertrouwen krijgen in de nieuwe technologie.
   - Training en opleiding: Train medewerkers om effectief gebruik te maken van AI-tools en hen te helpen begrijpen hoe AI hun werk kan ondersteunen.

6. Monitoring en bijstelling (Tijd: Doorlopend)
   - Resultaten evalueren: Monitor de prestaties van AI-oplossingen en voer verbeteringen door indien nodig.
   - Continue verbetering: Stel een cultuur van continue verbetering vast waarbij nieuwe inzichten en verbeteringen worden toegepast.

Andere Aandachtspunten voor Jullie AI-Reis

- Privacy en ethiek: Zorg ervoor dat alle AI-initiatieven voldoen aan privacywetten (zoals GDPR) en ethische richtlijnen. Dit is vooral belangrijk voor data die betrekking heeft op gevoelige informatie.
- Data-Security: Met AI-toepassingen die toegang hebben tot veel gegevens, is een goed beveiligingssysteem essentieel. Zorg voor encryptie en andere maatregelen om data te beveiligen.
- Schaalbaarheid: Houd rekening met schaalbaarheid bij het ontwerpen van de data- en AI-oplossingen. De infrastructuur moet in staat zijn om groeiende datavolumes en AI-modellen te ondersteunen.
- Cultuurverandering: De adoptie van AI betekent niet alleen een technologische verandering, maar ook een culturele. Communiceer duidelijk over hoe AI de werkpraktijken positief kan beïnvloeden en betrek medewerkers bij de verandering.

Voorstel voor Tijdskader

- Fase 1: Dataoptimalisatie (6-12 maanden): Voer het volledige dataoptimalisatietraject uit.
- Fase 2: Voorbereiding AI-implementatie (1-2 maanden): Selecteer use cases en bouw technische infrastructuur.
- Fase 3: Modellering en Proefimplementatie (6-10 maanden): Train AI-modellen en start pilotprojecten.
- Fase 4: Organisatiebrede Adoptie (Doorlopend): Train medewerkers en schaal AI-oplossingen na succesvolle pilots.

Met deze stappen en strategieën zorg je ervoor dat jullie databeheer efficiënt wordt geoptimaliseerd, en dat AI op een gestructureerde en waardevolle manier wordt geïmplementeerd. 

Ik ga nog even door met de volgende prompt: Over de eerste, en meest cruciale, stap data inventarisatie: geef een aanzet hoe we respectievelijk volledigheid, nauwkeurigheid, consistentie, relevatie en toegankelijkheid waarborgen, wat daar voor ieder van deze criteria essentieel is maar ook wat niet ivm het stellen van prioriteiten.

Bij de eerste stap, data-inventarisatie, zijn er enkele essentiële aspecten die cruciaal zijn voor de kwaliteit van jullie data. Hieronder geef ik een overzicht van hoe jullie voor elk van de vijf criteria - volledigheid, nauwkeurigheid, consistentie, relevantie en toegankelijkheid - de waarborgen kunnen waarmaken. Ook benoem ik wat eventueel niet noodzakelijk is, zodat jullie prioriteiten kunnen stellen en zo efficiënt mogelijk te werk kunnen gaan.

1. Volledigheid
Wat essentieel is:
- Databronnen identificeren: Zorg ervoor dat alle potentiële databronnen (interne en externe) in kaart worden gebracht. Het is van belang om zowel gestructureerde als ongestructureerde data te inventariseren.
- Gaten in de data detecteren: Gebruik datakwaliteitsanalyse om te detecteren of er essentiële data ontbreekt. Bijvoorbeeld, controleer of belangrijke klant-, proces-, of productgegevens compleet zijn.
- Minimale dataset definiëren: Bepaal welke gegevens absoluut nodig zijn om AI-modellen te trainen en stel deze als minimum vereiste. Dit helpt om datahiaten duidelijk te identificeren.

Wat niet noodzakelijk is:
- Elke dataset tot in detail evalueren: Het is niet nodig om direct in detail te gaan voor elke dataset. Richt je eerst op datasets met de hoogste prioriteit of waarde voor het specifieke doel van jullie AI-project.
- Inclusie van irrelevante gegevens: Niet alle beschikbare gegevens hoeven per se in het proces te worden opgenomen. Richt je op die gegevens die direct van invloed zijn op de AI-use cases.

2. Nauwkeurigheid
Wat essentieel is:
- Validatie van datapunten: Controleer of de waarden binnen datasets kloppen. Bijvoorbeeld, controleer of klantgegevens zoals telefoonnummers of e-mailadressen daadwerkelijk valide zijn. Dit kan deels geautomatiseerd met validatieregels.
- Historische fouten detecteren: Gebruik analyse om historische inconsistenties en foutieve datapunten te detecteren. Dit kan door afwijkingen te identificeren in bestaande patronen.
- Bijwerken van foutieve gegevens: Verbeter de data die fouten bevat en stel procedures in om foutieve data zo snel mogelijk te corrigeren.

Wat niet noodzakelijk is:
- Perfectie in nauwkeurigheid voor alle gegevens: Het streven naar 100% nauwkeurigheid kan tijdrovend en kostbaar zijn. Richt je eerst op gegevens die cruciaal zijn voor jullie belangrijkste AI-toepassingen en laat minder kritische data later verbeteren.

3. Consistentie
Wat essentieel is:
- Standaardisering van formaten: Zorg voor een consistente notatie van datums, tijdseenheden, valuta, etc. Dit kan bijvoorbeeld door richtlijnen voor data-invoer op te stellen en automatische validatie te implementeren.
- Uniformiteit tussen systemen: Data die in meerdere systemen aanwezig is, moet op dezelfde manier worden opgeslagen en weergegeven. Gebruik dataintegratietools om consistentie te waarborgen tussen systemen.
- Geautomatiseerde synchronisatie: Voor datasets die door meerdere afdelingen worden bijgewerkt, stel je een geautomatiseerde synchronisatie in om te voorkomen dat verschillende versies van dezelfde gegevens circuleren.

Wat niet noodzakelijk is:
- Directe harmonisatie van alle databronnen: Het is niet nodig om meteen alle datasets te harmoniseren. Begin met datasets die veel worden gebruikt in de prioritaire AI-use cases.

4. Relevantie
Wat essentieel is:
- Identificatie van waardevolle data: Identificeer welke datasets van directe waarde zijn voor de geïdentificeerde AI-use cases. Richt je op de gegevens die relevant zijn voor het beantwoorden van specifieke vragen, het maken van voorspellingen, of het optimaliseren van processen.
- Stakeholderinterviews: Voer gesprekken met afdelingen en teams die data gebruiken om te begrijpen welke datasets voor hen van waarde zijn en welke datasets redundant zijn.
- Filteren van ruis: Verwijder gegevens die geen directe waarde bieden voor de huidige of toekomstige AI-toepassingen. Dit vermindert complexiteit en opslagkosten.

Wat niet noodzakelijk is:
- Eliminatie van alle irrelevante data vooraf: Je hoeft niet alles meteen te verwijderen. Irrelevante gegevens kunnen nog waardevol blijken in latere use cases. Maak een "archief" voor data die mogelijk later nog relevant kan zijn, in plaats van ze volledig te verwijderen.

5. Toegankelijkheid

Wat essentieel is:
- Centraliseren van data: Zorg ervoor dat data toegankelijk is via één centraal platform (bijvoorbeeld een data warehouse of data lake). Dit maakt het eenvoudig voor AI-specialisten en analisten om toegang te krijgen tot data.
- Beheer van toegangsrechten: Implementeer toegangsrechten en rolgebaseerde toegang om ervoor te zorgen dat mensen alleen toegang hebben tot de gegevens die ze nodig hebben.
- Documentatie van datasets: Maak metadata beschikbaar voor elke dataset, zodat gebruikers weten wat de inhoud en de oorsprong is. Dit vergemakkelijkt het gebruik van data en vermindert de tijd die nodig is om datasets te begrijpen.

Wat niet noodzakelijk is:
- Onbeperkte toegang voor iedereen: Het is niet nodig om toegang te geven tot alle datasets aan iedereen in de organisatie. Prioriteer de toegang op basis van functie en behoeften.
- Directe toegang tot rauwe data: In veel gevallen kan toegang tot verwerkte of gestructureerde data volstaan, in plaats van toegang tot de ruwe data.

Prioriteiten Stellen

Om de eerste stap - data-inventarisatie - goed uit te voeren, is het belangrijk om pragmatisch te werk te gaan:

1. Richt je op datasets die bijdragen aan jullie belangrijkste AI-use cases. Begin met die datasets die direct bijdragen aan specifieke doelstellingen, zoals procesverbetering of klantinzichten.
2. Stel ‘good enough’ als doel voor de eerste versie van dataverbetering. Perfectie is niet altijd nodig, en een iteratieve aanpak (continu verbeteren) is vaak effectiever.
3. Automatiseer zoveel mogelijk processen, zoals datavalidatie, opschoning en integratie. Hiermee voorkom je handmatige fouten en bespaar je tijd.
4. Werk in fases: Begin met een inventarisatie op hoog niveau om de grootste pijnpunten te identificeren en ga dan dieper voor datasets die het meest van invloed zijn op de AI-toepassingen die jullie willen implementeren.

Voor het hier en nu nog een laatste prompt: Heeft deze uitwerking van de eerste stap, data-inventarisatie, nog gevolgen voor het tijdskader dat je in eerste instantie geeft?

Ja, de uitwerking van de eerste stap, data-inventarisatie, kan inderdaad gevolgen hebben voor het voorgestelde tijdskader. Hieronder bespreek ik welke veranderingen dit mogelijk met zich meebrengt en welke impact dit heeft op de totale planning:

Gevolgen voor het Tijdskader

1. Data-inventarisatie en -audit (Oorspronkelijk: 1-2 maanden → Aangepast: 2-3 maanden)
   - De gedetailleerdere focus op het waarborgen van volledigheid, nauwkeurigheid, consistentie, relevantie en toegankelijkheid zal waarschijnlijk extra tijd vergen. Met name het identificeren van waardevolle datasets, het uitvoeren van datakwaliteitsanalyses en het vaststellen van datastandaarden kan complexer en tijdrovender zijn dan aanvankelijk verwacht.
   - Het uitvoeren van stakeholderinterviews en audits om relevante datasets te identificeren zal naar verwachting meer betrokkenheid vereisen van verschillende afdelingen, wat kan leiden tot vertragingen door het coördineren van de betrokkenen. Hierdoor wordt een verlenging van deze stap met één maand aanbevolen.

2. Data-opschoning en -normalisatie (Oorspronkelijk: 2-3 maanden → Aangepast: 3-4 maanden)
   - Omdat volledigheid en nauwkeurigheid nauwkeurig worden nagestreefd, zal de data-opschoningsfase uitgebreider zijn. Dit omvat het detecteren van hiaten, foutieve gegevens en het doorvoeren van normalisatie op een gestructureerde manier.
   - Iteratieve datakwaliteitscontrole is nodig om te waarborgen dat alle gegevens in lijn zijn met de vastgestelde normen. Dit betekent een verhoging van de verwachte tijdsduur met ongeveer één maand.

3. Data-integratie en -centralisatie (Geen wijziging)
   - Deze fase blijft grotendeels ongewijzigd (3-4 maanden). Hoewel er meer nadruk wordt gelegd op datakwaliteit, kunnen de processen voor data-integratie en het opzetten van een dataplatform in dezelfde periode worden uitgevoerd, vooral omdat deze stappen vaak parallel met data-opschoning kunnen plaatsvinden.

4. Data-architectuur en governance (Oorspronkelijk: 2-3 maanden → Aangepast: 3-4 maanden)
   - De gedetailleerdere focus op data governance en consistentie betekent dat er mogelijk meer tijd nodig is voor het opstellen van beleid en richtlijnen, en om ervoor te zorgen dat data-eigenaren en -beheerders de regels begrijpen en implementeren. Dit kan de tijdsduur van deze stap met een maand verlengen.

5. Data-analyse en verrijking (Geen wijziging)
   - Deze stap wordt doorlopend uitgevoerd, en de huidige planning kan gehandhaafd blijven. Het is echter wel belangrijk dat data-analyse plaatsvindt nadat de eerste fasen zijn afgerond om waardevolle inzichten te verkrijgen.

Aangepast Tijdskader voor Fase 1: Dataoptimalisatie

De aangepaste tijdsduur voor fase 1, dataoptimalisatie, komt nu neer op 8-14 maanden in plaats van de oorspronkelijk voorgestelde 6-12 maanden. Dit betekent dat er een extra periode van 2 maanden wordt toegevoegd aan de planning van de datainventarisatie en -optimalisatie. Dit geeft ruimte om de kwaliteit van data beter te waarborgen, wat uiteindelijk leidt tot succesvollere AI-implementaties in latere fasen.

Het verlengen van de tijd voor data-inventarisatie en -optimalisatie is belangrijk om te voorkomen dat AI-projecten falen door slechte datakwaliteit of incomplete gegevens. De extra investering in de eerste fase zal zich terugbetalen in termen van betere AI-modellen en effectievere besluitvorming.

Gevolgen voor de Volgende Fasen

De latere fasen van AI-implementatie, zoals datamodellering, integratie, en adoptie, hoeven niet per se te worden verlengd, maar het kan zijn dat het tijdspad van de hele AI-strategie nu enigszins opschuift. Het aangepaste tijdskader voor de AI-implementatie wordt hierdoor:

1. Fase 1: Dataoptimalisatie (8-14 maanden)
2. Fase 2: Voorbereiding AI-implementatie (1-2 maanden): Gaat direct verder na fase 1.
3. Fase 3: Modellering en Proefimplementatie (6-10 maanden): Start zodra fase 1 voldoende datakwaliteit oplevert.
4. Fase 4: Organisatiebrede Adoptie (Doorlopend)

De totale looptijd voor de gehele AI-strategie is nu langer, maar dit biedt ruimte voor een solide basis, die essentieel is voor de succesvolle implementatie van AI. Het succes van AI-modellen is namelijk direct gerelateerd aan de kwaliteit van de data waarop ze getraind worden.

Samenvattend

- De eerste fase van data-inventarisatie en optimalisatie wordt met 2-3 maanden verlengd om volledigere, nauwkeurigere, en meer consistente datasets te creëren.
- Het tijdskader van de AI-implementatie verschuift enigszins, maar blijft gefaseerd en gericht op kwaliteit.
- De aanpassing in de tijdsplanning is een strategische keuze om te voorkomen dat de AI-fase later problemen ondervindt door onvoldoende datakwaliteit. 

De eerste berichten zijn er al van organisaties die onbezonnen kunstmatige intelligentie, waaronder chatbots als ChatGPT, Claude3, Google Gemini, MS Co-Pilot, hebben losgelaten op hun organisatiestructuur, op hun data. Kort gezegd: die berichten, ervaringen zijn zeker niet positief.

De fout wordt dan vaak neergelegd bij de chatbots e.a. AI. Besef dan dat taalmodellen zijn wat het woord zegt: 'ze' zijn handig in het modelleren van taal, niet meer en niet minder dan dat. Mensen en organisaties voorzien 'het' zelf de al dan niet correcte data. 

En ook voor deze AI gerelateerde bijdrage geldt: het lezen er van kost je meer tijd dan de tijd die het taalmodel nodig heeft voor de analyses. 

Graag nodig ik je uit voor een abonnement op mijn wekelijkse Sunny Side Up nieuwsbrief op LinkedIn. 

Willem E.A.J. Scheepers

CyberSale, 50% korting op een Pro-abonnement 

Verbeter je persoonlijke effectiviteit en managementvaardigheden. Begin het jaar goed en krijg toegang tot toepassingsgerichte kennis.
Upgrade uw gratis lidmaatschap, word een Pro

Willem Mastenbroek
Pro-lid
Wat een ingewikkeld gedoe. Data hier, data daar. De bullet-points rammelen maar door Met veel moeite is er dan ook nog ergens in een hoekje iets te vinden over relevantie en praktisch gebruik.
Willem, enig idee van de bronnen van al deze wijsheden? Misschien zijn deze aanbevelingen wel de oorzaak van de falende AI trajecten die jij aan het slot ven het artikel vermeldt.
Hoe dan ook, ik vind het een fraai voorbeeld van hoe je met AI in de mist gaat.
Willem E.A.J. Scheepers
Auteur
Hi Willem, sterke waarneming.

Vwb de bulletpoints: het is een stappenplan wat de chatbot adviseert en om 'in lijn te blijven' over de bronnen merkt het taalmodel op:

"De adviezen die ik hier geef, zijn gebaseerd op een combinatie van best practices en theoretische concepten op het gebied van datamanagement, kunstmatige intelligentie, en verandermanagement. Meer specifiek hanteer ik inzichten uit de volgende gebieden:

1. **Datamanagement Best Practices**: De richtlijnen voor data-inventarisatie, opschoning, integratie en governance zijn geïnspireerd door algemeen geaccepteerde praktijken in datamanagement en -kwaliteit, zoals gedefinieerd in standaarden zoals de **DAMA Data Management Body of Knowledge (DMBOK)**. Dit omvat methoden voor het verbeteren van datakwaliteit en het implementeren van data governance.

2. **AI-Implementaties en Data Science Project Methodologieën**: Het stappenplan voor de implementatie van AI is gebaseerd op methodologieën zoals **CRISP-DM (Cross Industry Standard Process for Data Mining)**, die worden gebruikt om data science en AI-projecten te structureren. Dit model biedt een gestructureerde aanpak voor het voorbereiden en analyseren van gegevens, ontwikkelen van modellen en implementeren van resultaten.

3. **Change Management en Organisatieadoptie**: De aanbevelingen voor veranderingsbeheer en adoptie zijn geïnspireerd door theoretische modellen van verandermanagement, zoals **Kotter's 8-step Process for Leading Change** en **Prosci's ADKAR model**. Deze modellen helpen bij het effectief betrekken van medewerkers bij technologische veranderingen, zoals AI-implementatie, en bevorderen een cultuur van acceptatie en adoptie.

4. **Best Practices van Industrie-ervaringen**: Veel van de adviezen zijn ook afgeleid van praktijkervaringen in de industrie. AI-projecten in de praktijk laten vaak zien dat de kwaliteit van data essentieel is voor succes. Cases van bedrijven zoals **Google**, **IBM**, en **Microsoft** die AI en machine learning succesvol implementeren, bevestigen dat robuust databeheer een belangrijke voorwaarde is.

5. **Literatuur over Datakwaliteit en Data Governance**: Onderzoeken en boeken zoals "Data Quality: The Accuracy Dimension" van Jack Olson en "Data Governance: How to Design, Deploy and Sustain an Effective Data Governance Program" van John Ladley bieden praktische inzichten in datakwaliteit en governanceprincipes die ik heb verwerkt in de adviezen.

Deze kennis komt uit een combinatie van formele literatuur, industriële praktijken en veelvoorkomende frameworks die bewezen effectief zijn. Hoewel ik niet direct naar specifieke recente artikelen of studies kan verwijzen, maak ik gebruik van geaggregeerde kennis van betrouwbare bronnen binnen datamanagement en AI-implementatie. Mocht je behoefte hebben aan specifieke referenties of literatuur, dan kan ik je helpen richting te geven waar deze informatie verder te verifiëren is."

Als je niet de juiste prompt formuleert ga je idd de mist in. ;-)
Willem E.A.J. Scheepers
Auteur
De prompt m.b.t. aanvullende bronnen leg ik ook voor aan Claude3:

"Hier zijn enkele waardevolle en actuele bronnen die relevant zijn voor het onderwerp AI en Databeheer:

Wetenschappelijke publicaties:
- "The State of AI Report 2024" - McKinsey Global Institute
- "Data Management in the Age of AI" - MIT Sloan Management Review (2023)
- "AI Governance and Risk Management Framework" - NIST (National Institute of Standards and Technology, 2024)

Nederlandse bronnen:
- Nederlandse AI Coalitie (NLAIC) - Position Paper "Verantwoord databeheer voor AI" (2024)
- "AI & Data Maturity Scan" - TNO
- Autoriteit Persoonsgegevens - "Richtlijnen AI en Privacy" (laatste update 2024)

Relevante organisaties en platformen:
- Data & AI Competence Center van de Universiteit van Amsterdam
- European Data Innovation Board (EDIB)
- AI Hub Nederland

Praktijkgerichte bronnen:
- Gartner's "Market Guide for AI in Data Management" (2024)
- Forrester Wave™: "AI For IT Operations" (AIOps)
- IDC MarketScape: "Worldwide Artificial Intelligence in Data Management"

Wet- en regelgeving:
- EU AI Act (definitieve versie 2024)
- Data Governance Act (DGA)
- AI Liability Directive (in ontwikkeling)

Online kennisplatformen:
- AI voor Nederland (platform voor kennisdeling)
- Data Science Platform Netherlands
- AI Technology for People

Let wel: aangezien mijn kennis een cutoff-datum heeft, raad ik aan om de actualiteit van deze bronnen te verifiëren en waar nodig de meest recente versies te raadplegen. Vooral op het gebied van AI-regelgeving en -technologie vinden er momenteel snelle ontwikkelingen plaats."
Willem E.A.J. Scheepers
Auteur
"4. Vertrouwen en psychologische veiligheid zijn essentieel: Er is een duidelijk gebrek aan vertrouwen in de kwaliteit van data en in de vaardigheden van medewerkers om AI verantwoord te gebruiken."

Citaat uit het GALLUP rapport 'Culture of AI Benchmark Report State of AI Adoption and Culture Readiness in Europe'.

Synopsis in deze LI post: https://www.linkedin.com/posts/willemscheepers_ai-databeheer-organisatiecultuur-activity-7259244940541538308-T3Tx

Meer over ChatGPT-4