
Vitaly Sosnovskiy/Shutterstock Steve Jurvetson/Flickr (CC BY SA 2.0) (Licenseret) remix af Jason Reed
Tekniske titaner kræver 6-måneders AI-pause for at finde ud af, hvilken slags monster de har sluppet løs
De ønsker, at det skal anses for sikkert ud over en 'rimelig tvivl'.
Et åbent brev underskrevet af nogle af de største navne i teknologiverdenen opfordrer til en pause i udviklingen af kunstig intelligens (AI) på grund af frygt for, at teknologien kan udgøre 'dybe risici for samfundet og menneskeheden.'
Udgivet af Future of Life Institute, en organisation, hvis erklærede mål er at 'styre transformative teknologier væk fra ekstreme risici i stor skala', har brevet formået at tiltrække mere end 1.100 underskrifter fra Twitter-chef Elon Musk og Apple co. -grundlægger Steve Wozniak.
Specifikt opfordrer brevet alle AI-laboratorier over hele kloden 'til øjeblikkeligt at holde pause i mindst 6 måneder i træningen af AI-systemer, der er stærkere end GPT-4,' den store multimodale sprogmodel, der for nylig blev opdateret og udgivet af virksomheden OpenAI.
'Kraftfulde AI-systemer bør kun udvikles, når vi er sikre på, at deres virkninger vil være positive, og deres risici vil være håndterbare,' lyder brevet. 'Denne tillid skal være velbegrundet og øges med størrelsen af et systems potentielle effekt.'
Hvis en sådan pause ikke kan opnås, fortsætter brevet, 'bør regeringerne træde til og indføre et moratorium.'
Andre prominente underskrivere inkluderer den tidligere præsidentkandidat Andrew Yang, Skype-medstifter Jaan Tallinn samt adskillige eksperter inden for AI-forskning. Da brevet er offentligt åbent for underskrifter, opfordres brugerne dog til at behandle listen over navne med varsomhed.
Som nævnt i brevet, OpenAI aftalte for nylig at det sandsynligvis ville være vigtigt på et tidspunkt at modtage uafhængig gennemgang, inden man træner fremtidige systemer. AI-virksomheden foreslog også, at der muligvis skal aftales en grænse for 'væksthastigheden for beregninger, der bruges til at skabe nye modeller.'
Future of Life Institute hævder, at tiden for sådanne tiltag er nu.
'AI-laboratorier og uafhængige eksperter bør bruge denne pause til i fællesskab at udvikle og implementere et sæt fælles sikkerhedsprotokoller til avanceret AI-design og -udvikling, som er strengt revideret og overvåget af uafhængige eksterne eksperter,' fortsætter brevet. 'Disse protokoller bør sikre, at systemer, der overholder dem, er sikre ud over enhver rimelig tvivl.'
Musk, som er ekstern rådgiver for Future of Life Institute, var med til at stifte OpenAI, inden han trak sig fra virksomhedens bestyrelse på grund af uenighed med virksomhedens retning.
'OpenAI blev oprettet som en open source (hvorfor jeg kaldte det 'Open' AI), non-profit virksomhed for at tjene som en modvægt til Google, men nu er det blevet en lukket kilde, maksimal profit-virksomhed, der effektivt kontrolleres af Microsoft 'Musk tweeted sidste måned. 'Slet ikke hvad jeg havde tænkt mig.'
Brevet har næppe nogen større effekt, i det mindste foreløbig, på udviklingen af kunstig intelligens, da store teknologivirksomheder råber på at konkurrere med OpenAI og ChatGPT.

