En rapport från Gladstone AI uppmanar till inrättandet av ett statligt organ för att reglera AI-utvecklingen och lyfter fram risker för nationell säkerhet och potentialen för mänsklig utrotning.
Yournews rapporterar:
En rapport med titeln An Action Plan to Increase the Safety and Security of Advanced AI, producerad av konsultföretaget Gladstone AI och beställd av utrikesdepartementet, kräver ökad statlig tillsyn över artificiell intelligens (AI) för att mildra ”brådskande och växande risker för nationell säkerhet” och förhindra ett ”utrotningsnivåhot mot den mänskliga arten.” I rapporten föreslås att en ny federal myndighet bildas med uppgift att strikt reglera AI-utvecklingen, inklusive att införa begränsningar för den beräkningskraft som används av AI-system, vilket skulle begränsa den tekniska utvecklingen till nästan nuvarande kapacitet.
Konsultföretagets rekommendationer kommer som ett svar på de blandade resultaten i samband med allmänhetens interaktion med AI-teknik, såsom ChatGPT, som har kritiserats för att sprida desinformation, politisk censur och uppvisa oberäkneligt beteende, vid sidan fall av missbruk från individer.
Rapporten fokuserar på utvecklingen av Artificial General Intelligence (AGI), som definieras som AI som kan överträffa människan inom ekonomiskt och strategiskt viktiga områden. Rapporten varnar för ett scenario med ”förlust av kontroll” där framtida AI kan överträffa mänskliga insatser för att begränsa utvecklingen, och jämför den potentiella effekten med den av massförstörelsevapen och antyder att människan kan komma att utrotas.
Rapporten tar upp de farhågor som OpenAI:s vd Sam Altman och andra har uttryckt i ett offentligt uttalande om AI-risker och betonar behovet av global prioritering för att minska riskerna för att AI utrotas, jämförbara med pandemier och kärnvapenkrigföring. Altman lyfte fram utmaningen med att pausa AI-forskningen på grund av internationell konkurrens, och påpekade särskilt att ett stopp i USA inte skulle leda till ett stopp i Kina. Han förespråkade utvecklingen av förebyggande standarder som skulle kunna antas globalt, i linje med rapportens rekommendationer.
Den föreslagna federala myndigheten skulle tillämpa strikta regler för AI-forskning, inklusive tak för beräkningskraft och kriminalisering av obehörig distribution av AI-kod. Rapportens författare hävdar att utan sådana åtgärder kan konkurrensen om att utveckla AGI leda till vårdslösa framsteg av ”pionjärföretag”, som prioriterar hastighet framför säkerhet och trygghet. Denna regleringsstrategi syftar till att bromsa mjukvaruutvecklingen för att förhindra en för tidig uppkomst av AGI från befintlig eller nära framtida teknik.
I rapporten erkänner man dock begränsningarna med sådana regler och noterar sannolikheten för att AI-forskare flyttar till mindre restriktiva jurisdiktioner för att fortsätta sitt arbete, vilket understryker komplexiteten i att hantera AI-utveckling i ett globalt sammanhang.
Copyright © 2024 översättning av Globalnytt. Tillstånd att återge hela eller delar av texten beviljas gärna, förutsatt att full kreditering och en direktlänk anges.
Bortförd av en elbil: Stromer accelererade till 160 km/h och kunde inte bromsas!