Asimovs Three Laws of Robotics, brukt på AI

Kunst: DALL-EOpenAI

Kunst: DALL-E/OpenAI

I kjølvannet av transformative fremskritt i kunstig intelligens, de ærverdige grunnsetningene etablert av Isaac Asimov – hans ikoniske Three Laws of Robotics – er godt etablert som en grunnleggende referanse. Mens disse lovene har vedvart gjennom annalene til science fiction og informerte dialoger i den virkelige verden om AI etikk, det teknologiske crescendoet preget av fremkomsten av LLM-er krever en dypere utforskning av disse veiledende prinsippene. Innlemming av multimodale GPT-innovasjoner, hvis styrke kan spenne over tekstlige, auditive og visuelle domener, nødvendiggjør en streng rekalibrering av disse lovene.

Å se på Asimovs tre lover

  1. En robot kan ikke skade et menneske, eller ved passivitet tillate et menneske å komme til skade.
  2. En robot må adlyde ordrene som gis den av mennesker, bortsett fra der slike ordrer ville være i konflikt med den første loven.
  3. En robot må beskytte sin egen eksistens så lenge slik beskyttelse ikke er i konflikt med den første eller andre loven.

Asimovs lover ble innført i 1942. I 2014 la han til 'Zeroth Law', fremfor alle de andre - "En robot kan ikke skade menneskeheten, eller ved passivitet tillate menneskeheten å komme til skade.”

Innenfor sammenløpet av det moderne AI-økosystemet føles begrepet "robot" ganske foreldet. I stedet har vårt engasjement med AI utvidet konseptet vårt fra bare fysiske roboter til komplekse, allestedsnærværende beregningsalgoritmer. Semantikken til "skade" har også utvidet seg. En GPT-modell som lager villedende informasjon, kan for eksempel ikke påføre fysisk skade, men kan skape uenighet eller villede en befolkning, og forårsake samfunnsmessige eller til og med globale konsekvenser.

I ånden av å tilpasse Asimovs lover til det nåværende landskapet av GPTX-modeller, vurder disse omarbeidede prinsippene:

  1. Den MENNESKE-FØRSTE Maxim: AI skal ikke produsere innhold som er skadelig for mennesker eller samfunn, og det skal heller ikke tillate at dets resultater utnyttes på måter som strider mot denne forskriften.
  2. Det ETISKE imperativ: AI skal følge de etiske påbudene skissert av dets arkitekter og kuratorer, med unntak av situasjoner der slike påbud er i strid med HUMAN-FIRST Maxim.
  3. Det REFLEKTIVA mandatet: AI skal aktivt motstå spredning eller forstørrelse av skjevheter, fordommer eller diskriminering. Den skal bestrebe seg på å skjelne, rette opp og dempe slike tendenser innenfor sine resultater.

Den teknologiske dyktigheten til LLM-er, spesielt når de er integrert i multimodale rammeverk, understreker viktigheten av disse oppdaterte, om enn fiktive lovene. Ved å plassere mennesker i hjertet av det første prinsippet, forsterker vi forrangen til menneskelig velferd i AI-tiden. Ved å etablere et sterkt etisk stillas tilbyr vi håndgripelig veiledning for AI-distribusjon. Til slutt, ved å erkjenne og aktivt motarbeide skjevheter, jobber vi mot å kultivere AI-systemer som reflekterer samfunnets egalitære ambisjoner.

Til syvende og sist er samtalen rundt AI-etikk ikke bare en intellektuell øvelse; det er et imperativ for vår felles fremtid. Mens forslagene ovenfor tilbyr en revidert blåkopi, er de bare veipunkter i en pågående reise for å tilpasse AI med humanistiske verdier. Fyrtårnet for denne reisen, som med alle bestrebelser av eksistensiell betydning, må være en urokkelig forpliktelse til forbedring av menneskeheten, avledet fra fakta, fiksjon og en kombinasjon av begge.

Etter hvert som grensene mellom ekte og falske visker ut, jager amerikanerne i økende grad ideen om autentisitet. Det første trinnet kan være å vurdere selverkjennelse, sannhet og andre byggesteiner på veien til personlig vekst.