complex organisme
Wij denken dat juist aan de randen van organisaties steeds vaker en sneller beslissingen genomen moeten worden om een bedrijf in leven te houden. Zie een complex organisme als de metafoor; sommige beslissingen worden in de kern genomen, het merendeel van de beslissingen aan de randen. De reden is simpel, de meeste veranderingen zijn in de buitenwereld te vinden en dus moet je snel aan de rand van je cel of organisatie keuzes kunnen maken.De vraag is hoe je ervoor kan zorgen dat professionals aan de randen van je organisatie de juiste beslissingen kunnen nemen? Op basis waarvan? Vaak staat er veel tijdsdruk op het nemen van een beslissing en kunnen we de juiste informatie niet snel genoeg vinden. Wat overblijft is onze ervaring, inschattingsvermogen en onderbuikgevoel. Maar door belangrijke beslissingen te verplaatsen van de kern van de organisatie naar de randen en hopen dat het allemaal goed gaat komen is een te groot risico aan het worden. We zullen onze professionals moeten helpen.
suggesties
We kunnen professionals helpen door het aanreiken van suggesties. Suggesties om besluiten te nemen en daarvan dan ook direct de mogelijke gevolgen te kunnen overzien. Dit kunnen we tegenwoordig steeds beter voor elkaar krijgen door zeeën aan data aan te bieden waar oplossingen en suggesties in liggen verborgen. Zelf kunnen we daar natuurlijk nooit snel genoeg iets zinvols uithalen en daar hebben we dan Kunstmatige intelligentie voor nodig om patronen te herkennen die ons mogelijk kunnen helpen om de juiste keuzes te kunnen maken.Maar als we kijken naar hoe een AI-machine tot een suggestie of data driven insight komt, kunnen we daar nog wel een paar vragen bij stellen. Ik heb in een blogje op Linkedin al eerder gehad over het kijken naar de wereld vanuit een mannelijk of een vrouwelijk perspectief. Daar zitten verschillen in, laten we daar voor het gemak vanuit gaan. De AI-machine komt tot conclusies door het inzetten van algoritmen. Wie heeft deze algoritmen geschreven? Mannen, vrouwen een mix. Waarschijnlijk zitten er persoonlijke voorkeuren opgesloten in de door mensen geschreven algoritmen.
bias
Laatst was ik bij een IBM-event waar zij spraken over bias in de wereld van AI. Als voorbeeld werd een facial recognition case gegeven. Een groep blanke mannen van middelbare leeftijd uit het midden van Amerika hadden een algoritme ontwikkeld voor het herkennen van gezichten. Blanke gezichten. Op het moment dat iemand met een donkere huidskleur werd gepresenteerd was het systeem niet in staat hierop juist te reageren. Dat is bias en dat is gevaarlijk. Zeker wanneer we steeds meer beslissingen door AI willen laten nemen.Sneller goede beslissingen nemen wordt van levensbelang voor organisaties. We kunnen niet alleen maar blijven vertrouwen op onze onderbuik en zullen de hulp inroepen van Virtual Assistants die mogelijk last van bias hebben. IBM wil de gebruikers van AI maximale transparantie bieden als het gaat om de opbouw van de algoritmen. Lijkt mij een mooi streven, maar wie heeft er tijd om dit zelf iedere keer te beoordelen? Of komen er gecertificeerde AI-services? Maar wie kan bepalen of ze neutraal zijn, en wil je dat wel?
gekozen bias
Mogelijk krijgen we op termijn juist de keuze krijgen om gebruik te maken van AI-services met een te kiezen bias: Middelbare-blanke-man-Bias, Middelbare-aziatische-vrouw-bias, Werkzoekende-bias, Directie-bias, etc.Een store van Virtual-Assistants met een personality, je mag zelf kiezen welke het best bij je past. Natuurlijk heeft je bedrijf alvast een voorselectie voor je gemaakt waar jij uit mag kiezen. Zo worden de beslissing genomen die passen bij de visie, missie en cultuur van het bedrijf ;-).