1: En robot må ikke gøre et menneske fortræd eller, ved ikke at gøre noget, lade et menneske komme til skade.
2: En robot skal adlyde ordrer givet af mennesker, så længe disse ikke er i konflikt med første lov.
3: En robot skal beskytte sin egen eksistens, så længe dette ikke er i konflikt med første eller anden lov.
Sådan lyder den russiske forfatter Isaac Asimovs tre robotlove, der var omdrejningspunktet i hans science fiction-univers.
De tre love er siden blevet anskuet af forskere som værende etiske rettesnore for fremtidens kunstige intelligens, og nu har Google iværksat et nyt forretningsben, der har fokus på netop det - at sørge for, at nutidens og fremtidens udviklingen indenfor kunstig intelligens bliver skabt på etiske principper.
Ethical as a service
Det nye forretningseventyr kommer på et tidspunkt, hvor Google halter bagefter Amazon og Microsoft i sin cloud-forretning. Og så kommer det på bagkant af flere eksempler på, at Google selv har fået ørerne i maskinen over kunstig intelligens, der ikke har virket efter hensigten - f.eks. i 2015, hvor deres Google-photos app, via den automatiske ansigtsgenkendelse, havde identificeret gorillaer som værende en sort mand.
Med Googles nye etiske system kan det ligeledes blive starten på en ny trend - EaaS (ethical as a service), hvor techgiganterne i højere grad kigger mod etiske løsninger og services frem for blot tekniske løsninger.
Med fremstødet træder Google ind på en scene, hvor verdens ledere på mange niveauer i disse år diskuterer, hvordan man bedst regulerer kunstig intelligens. Spørgsmålet er dog stadig, hvorvidt ansvaret ligger hos udviklerne, hos myndighederne eller i dette tilfælde hos tredjepartsvirksomheder, som Google i dette tilfælde, der nu vil gøre andre virksomheders tekniske løsninger mere etiske.