Home / Blog / Google komt met ethische code voor kunstmatige intelligentie

Google komt met ethische code voor kunstmatige intelligentie

LATER LEZEN

Kunstmatige intelligentie leert van mensen. Dat betekent dat fouten van mensen ook overgenomen kunnen worden door machines. Google vindt dat zij als belangrijke ontwikkelaar van AI grote verantwoordelijkheid draagt. Daarom heeft het bedrijf zeven doelen geformuleerd.

 

1. Be socially beneficial. 

Google kijkt naar verschillende sociale en economische factoren, en gaat alleen verder als de “overall likely benefits substantially exceed the foreseeable risks and downsides”. Dat is natuurlijk erg vaag. Ook de toezegging “we will continue to thoughtfully evaluate when to make our technologies available on a non-commercial basis” is een loos statement. Beloven ergens over na te blijven denken is een wassen neus.

2. Avoid creating or reinforcing unfair bias.

Algoritmen kunnen vooroordelen reproduceren en versterken. Het is goed dat Google dit formeel erkent. Ze schrijven hier: “We will seek to avoid unjust impacts on people”: ze doen hun best dit te vermijden.

3. Be built and tested for safety.

Google test uitgebreid op veiligheid.

4. Be accountable to people.

Google stelt zich aansprakelijk op voor de systemen die ze ontwikkelen.

5. Incorporate privacy design principles.

Instemming is belangrijk, Google moedigt goede privacypraktijken aan en zal “appropriate transparency and control over the use of data” mogelijk maken. Ook deze is tricky, wat het is Google zelf die beslist wat passend is en wat niet.

6. Uphold high standards of scientific excellence.

De wetenschappelijke methode bestaat volgens Google uit “open inquiry, intellectual rigor, integrity, and collaboration”. Google zegt toe kennis te delen door het publiceren van onderwijsmateriaal, best practices en onderzoek. Het valt op dat Google herhaalbaarheid niet als onderdeel van de methode ziet: bedrijfsgeheim belemmert daardoor waarschijnlijk het werkelijk open delen van kennis.

 

7. Be made available for uses that accord with these principles.  

Met veel technologie kan je meer doen dan waar het voor ontworpen is. Google belooft dat ze hierop evalueert.

In de blogpost staan ook een aantal applicaties die Google niet zal nastreven, zoals wapens en technologie├źn die tegen internationale standaarden en mensenrechten ingaan. Supersympathiek! Daarbij wordt wel aangetekend dat Google blijft samenwerken met overheden op het gebied van┬á┬ácybersecurity, training, rekrutering voor het leger, gezondheidszorg voor veteranen en ‘search and rescue’.

 

Uiteindelijk is de code dus zeer vrijblijvend. Maar het feit dat Google hier ├╝berhaupt is lovenswaardig, zeker in vergelijking met het extreem gesloten Facebook.