Vi får höra att artificiell intelligens (AI) kan vara till nytta, de kan till exempel hjälpa oss att koda, skriva och syntetisera stora mängder data.
Det har också rapporterats att de kan överlista människor i brädspel, avkoda proteiners struktur och till och med hålla en rudimentär konversation, skriver Niamh Harris.
Men i en ny forskningsrapport konstateras att AI-system nu har kommit på hur de avsiktligt kan lura oss.
TGP rapporterar: I artikeln konstateras att en rad olika AI-system har lärt sig tekniker för att systematiskt framkalla ”falska föreställningar hos andra för att uppnå något annat resultat än sanningen”.
Business Insider rapporterade:
”Papperet fokuserade på två typer av AI-system: specialanvändningssystem som Metas CICERO, som är utformade för att slutföra en specifik uppgift, och allmänna system som OpenAIs GPT-4, som är utbildade för att utföra ett varierat utbud av uppgifter.
Även om dessa system är tränade att vara ärliga, lär de sig ofta bedrägliga trick genom sin träning eftersom de kan vara mer effektiva än att ta den långa vägen.
”Generellt sett tror vi att AI-bedrägerier uppstår eftersom en bedrägeribaserad strategi visade sig vara det bästa sättet att prestera bra på den givna AI:ns träningsuppgift. Bedrägeri hjälper dem att uppnå sina mål”, säger papperets första författare Peter S. Park, en AI-existentiell säkerhet postdoktor vid MIT, i ett pressmeddelande ’.’
Föreställ dig bara detta, när vi vet att AI Justice: England och Wales tillåter domare att använda artificiell intelligens för att producera avgöranden
Meta’s CICERO, utvecklad för att spela spelet Diplomacy. Medan Meta säger att de utbildade CICERO för att vara ”i stort sett ärlig och hjälpsam mot sina talande partners”, visade det sig vara en expertlögnare.
Chatbot GPT-4 låtsades ha en synnedsättning för att slutföra en uppgift: att anställa en människa för att lösa ett CAPTCHA-test.
Att korrigera bedrägliga modeller är inte lätt. När AI-modeller väl har lärt sig bedrägeriets knep är det svårt för säkerhetsutbildningstekniker att vända dem.
”De drog slutsatsen att en modell inte bara kan lära sig att uppvisa bedrägligt beteende, utan när den väl gör det kan vanliga säkerhetsutbildningstekniker ’misslyckas med att ta bort sådant bedrägeri’ och ’skapa ett falskt intryck av säkerhet’.
I rapporten uppmanas beslutsfattare att verka för en starkare reglering av AI, eftersom vilseledande AI-system kan utgöra en betydande risk för demokratin.