De Australische minister van Superannuation, Financial Services and the Digital Economy Jane Hume heeft verzekerd dat het ethische kader voor AI van het land in de nabije toekomst vrijwillig zal blijven.
Als onderdeel van haar toespraak tijdens het virtuele CEDA AI Innovation in Action-evenement op dinsdag, legde Hume uit dat er voldoende regelgevende kaders waren en dat een ander niet nodig zou zijn.
“We hebben al een heel sterk regelgevend kader; we hebben al privacywetten, we hebben al consumentenwetten, we hebben al een commissaris voor gegevens, we hebben al een commissaris voor privacy, we hebben een toezichthouder voor wangedrag. We hebben al die vangrails die al zitten rond de manier waarop we onze bedrijven runnen”, vertelde ze aan ZDNet.
“AI is gewoon een technologie die een bestaand bedrijf wordt opgelegd. Het is belangrijk dat technologie wordt gebruikt om problemen op te lossen. De problemen zelf zijn niet echt veranderd, dus onze regelgeving moet zeker flexibel genoeg zijn om technologische veranderingen op te vangen … we willen om ervoor te zorgen dat er niets in wet- en regelgeving is dat de vooruitgang van technologie in de weg staat.
“Maar tegelijkertijd is het opstellen van nieuwe regelgeving voor technologie, tenzij we er een use-case voor kunnen zien, iets dat we niet zouden doen, te veel wetten maken en te veel voorschrijven.”
De federale overheid ontwikkelde in 2019 het nationale ethische kader voor AI, naar aanleiding van de publicatie van een discussienota door Data61, de digitale innovatietak van de Commonwealth Scientific and Industrial Research Organization (CSIRO).
De discussienota benadrukte dat de ontwikkeling van AI in Australië moet worden verpakt in een voldoende kader om ervoor te zorgen dat burgers niets worden opgelegd zonder passende ethische overwegingen.
Het raamwerk bestaat uit acht ethische principes: Menselijk, sociaal en milieuwelzijn; mensgerichte waarden met betrekking tot mensenrechten, diversiteit en de autonomie van individuen; eerlijkheid; privacybescherming en beveiliging van gegevens; betrouwbaarheid en veiligheid in overeenstemming met het beoogde doel van de AI-systemen; transparantie en uitlegbaarheid; betwistbaarheid; en verantwoording.
Hume is van mening dat de principes zo zijn ontworpen dat ze ‘een soort universeel’ zijn en dat de industrie daarom bereid zou zijn ze vrijwillig toe te passen.
“Er staat niets in waar mensen zich ongemakkelijk bij zouden voelen, er is niets dat te voorschrijvend is… dit zijn allemaal dingen die we zouden verwachten. Ik denk dat er niets in zit dat bijzonder belastend is,” zei ze.
Hoewel het ontwikkelen van deze principes één ding is, kan het toepassen ervan heel anders zijn, gaf Hunt toe.
“Je moet bijvoorbeeld de juiste bestuursstructuren hebben. Maar je moet voor veel dingen de juiste bestuursstructuren in je organisatie hebben, bijvoorbeeld veiligheid op de werkplek is een goed voorbeeld”, zei ze.
“Ik denk dat we graag zouden zien dat de bredere industrie, ongeacht de industrie die AI-technologieën toepast, zich vrijwillig bij die kaders aanmeldt, in plaats van iets te hebben dat van bovenaf wordt opgelegd.”
Voor Microsoft heeft het vrijwillig het AI-raamwerk aangenomen door een interne bestuursstructuur te ontwikkelen “om voortgangs- en verantwoordingsregels mogelijk te maken om verantwoorde AI-vereisten, training en praktijken te standaardiseren om onze medewerkers te helpen handelen volgens onze principes, en om diep na te denken over de effecten van AI-systemen “, zei Microsoft Australia Corporate Affairs-directeur Belinda Dennett tijdens het evenement.
Microsoft was een van de eerste bedrijven die de handen in de lucht stak om de ethische principes van AI te testen, om ervoor te zorgen dat ze konden worden vertaald naar realistische scenario’s.
De andere bedrijven waren National Australia Bank, Commonwealth Bank, Telstra en Flamingo AI.
Eerder deze maand onthulde CBA dat het testen van de ethische principes tijdens het maken en ontwerpen van de Commbank-app-functie Bill Sense inzicht gaf in hoe de bank verantwoorde AI op schaal kon toepassen.
“Het was geweldig om te zien dat de AI-principes heel netjes aansloten bij de controle- en governancekaders die de bank al had. Zaken als veilig beheer van gegevens, klantprivacy en transparantie staan al lang centraal in de manier waarop we werken vóór de komst van AI”, vertelde CBA-hoofdbeslissingswetenschapper Dan Jermyn aan ZDNet.
“Maar het tempo, de schaal en de verfijning van AI-oplossingen betekenen dat we ervoor moeten zorgen dat we voortdurend evolueren om aan de eisen van nieuwe technologie te voldoen. Daarom is samenwerking met onze partners binnen de overheid en de industrie zo belangrijk.”
Om ervoor te zorgen dat AI op verantwoorde wijze wordt toegepast, heeft de bank een tool ontwikkeld om het voor teams binnen de bank gemakkelijker te maken om AI veilig op schaal te leveren, aldus Jermyn.
“We hebben bijvoorbeeld ‘verklaarbare AI’-mogelijkheden ontwikkeld, waardoor het voor al onze bedrijfsteams eenvoudig is om de belangrijkste drijfveren van zelfs de meest complexe deep learning-modellen te begrijpen en uit te leggen,” zei hij.
Hij voegde eraan toe dat een verantwoorde toepassing van AI noodzakelijk zal zijn, aangezien CBA het als hulpmiddel blijft gebruiken om de klantervaring te verbeteren.
“We zien AI als een belangrijke factor voor ons bij het bieden van een geweldige, persoonlijke ervaring aan al onze klanten, en daarom doen we er alles aan om ervoor te zorgen dat we het op een consequent eerlijke en ethische manier toepassen”, aldus Jermyn. “Omdat we de manieren waarop AI ons helpt om het financiële welzijn van onze klanten en gemeenschappen te ondersteunen blijven uitbreiden, is het essentieel dat we dit op een verantwoorde en duurzame manier doen.”