NL
EN
Google Cloud

De bouwstenen voor verantwoordelijke technologie

Artificial intelligence (AI) is hard op weg om een onmisbaar onderdeel te worden van de manier waarop organisaties werken. Bedrijven gebruiken AI om bedrijfsprocessen te automatiseren, om inzicht te krijgen door data-analyse in te zetten en om klanten en werknemers aan zich te binden. AI heeft duidelijk een belangrijke toegevoegde waarde. We moeten er alleen wel op toezien dat onze oplossingen inclusief zijn en onze bedrijfswaarden uitdragen.

AI is niet altijd volledig inclusief gebleken. Als je de onbedoelde en ongewenste gevolgen van AI niet onder controle hebt, kunnen incidenten zorgen voor reputatieschade en verlies van consumentenvertrouwen. Volgens een onderzoek door Capgemini heeft 62% van de consumenten meer vertrouwen in een bedrijf met AI-interacties die zij als ethisch beschouwen. Ook geeft 59% aan dat zij meer loyaliteit zouden voelen ten opzichte van een AI-ethisch bedrijf. Hoe kun je dus profiteren van de voordelen van AI, en tegelijkertijd producten ontwikkelen die veiliger en meer verantwoord zijn, en daarmee het vertrouwen van de consument verdienen en behouden?

De fundering

Bij Google denken we dat producten en ontwerpen transparant moeten zijn en voor iedereen moeten werken. We erkennen dat dit vakgebied dynamisch is en voortdurend verandert; we stellen ons dan ook bescheiden op en zijn bereid om aanpassingen te doen op basis van wat we leren. Onze toewijding en onze manier van werken lichten we toe in onze AI-principes. Ze bestaan uit een rijtje met onze kernwaarden als het gaat om het om het implementeren van AI.

De structuur

Al bouwend op onze basisprincipes, hebben we Explainable AI geïntroduceerd. Dit bestaat uit tools en kaders die ons leren begrijpen hoe wiskundige modellen tot hun besluiten en conclusies komen. We hebben ook het idee van Model Cards geïntroduceerd. Dat zijn een soort bijsluiters die bij AI-gedreven modellen zitten en waarin staat hoe je een model zou kunnen kunnen gebruiken, wat de beperkingen zijn, en de details over het proces van prestatie-evaluatie. Wij denk dat model cards een stap zijn in de richting van het verantwoord democratiseren van AI-technologie en daarmee het vergroten van het inzicht in hoe goede AI-technologie werkt. Ontwikkelaars worden zo gestimuleerd om al vanaf het begin van een ontwikkelproces na te denken over hun invloed op verschillende mensen en die ook in de rest van het traject in gedachten te houden.

“Met tools zoals de What-IF-tool en de attributiefuncties in AI PLatform, kunnen onze datawetenschappers vol vertrouwen modellen bouwen, en toelichtingen schrijven die door mensen kunnen worden begrepen.”

— Stefan Hoejmose, Head of Data Journeys at Sky

Onderhoud

Behalve het bouwen van een sterke structuur met deze tools, is het belangrijk om die structuur ook te blijven herzien. Wiskundige modellen gaan uit van patronen en gedrag uit het verleden om de toekomst te voorspellen. De huidige wereldwijde pandemie is een mooi voorbeeld van een gebeurtenis die de manier waarop we leven en werken kan ontwrichten en zo de effectiviteit van voorspellende modellen kan beïnvloeden. En net zoals je als organisatie je business-strategieën moeten bijstellen, zul je ook je wiskundige modellen moeten herzien. Hoe zit dit model in elkaar? Welke data is er gebruikt? Hoe worden functies gewogen? Welke aannames werden er gedaan bij de bouw van het model? Hoe sneller je trends kunt opsporen, bijsturen en testen, hoe accurater je kunt reageren. En dat levert je veiligere en meer verantwoorde producten op.

Je kunt bijvoorbeeld onze What-If tool gebruiken om je ML-modellen te controleren, het waardebereik van elke functionaliteit onderzoeken en ze zo rechtvaardig mogelijk maken. In het filmpje hieronder leggen we kort uit hoe dat werkt.

Sky, een van de grootste media- en communicatiebedrijven in Europa, begon met het gebruik van de What-If-tool in combinatie met Googles AI-platform: “Begrijpen hoe onze modellen tot hun beslissingen komen, is essentieel voor het in onze sector kunnen gebruiken van AI. We zijn blij met de progressie die Google heeft gemaakt bij het oplossen van deze uitdaging. Met tools zoals de What-IF-tool en de attributiefuncties in  AI PLatform, kunnen onze datawetenschappers vol vertrouwen modellen bouwen en toelichten schrijven die door mensen kunnen worden begrepen.” - Stefan Hoejmose, Head of Data Journeys bij Sky.

Het dak

Aan de toekomst van AI wordt nog steeds gebouwd. En dat zal een klus zijn die geklaard wordt door mensen uit verschillende sectoren, met verschillende achtergronden en uit verschillende culturen, maar met dezelfde ambitie: een positieve invloed hebben op de wereld. Elke sector heeft zijn eigen AI-revolutie en heeft daarbij begeleiding nodig. Om meer verantwoorde producten te ontwikkelen en om het vertrouwen van de consument te behouden, moet je de bouwstenen voor een betrouwbare technologie in gedachten houden. Google Cloud helpt je daar graag bij.

Investeer jij in AI, lees dan onze gids over verantwoorde AI in de praktijk en sla onze Inclusive ML guide erop na. Door samen te leren, kunnen we meer ethische oplossingen bouwen en onze maatschappij een betere plek maken voor iedereen.

Bronnen: