Digital Creator / Pixabay

Vi får höra att artificiell intelligens (AI) kan vara till nytta, de kan till exempel hjälpa oss att koda, skriva och syntetisera stora mängder data.

Det har också rapporterats att de kan överlista människor i brädspel, avkoda proteiners struktur och till och med hålla en rudimentär konversation, skriver Niamh Harris.

Men i en ny forskningsrapport konstateras att AI-system nu har kommit på hur de avsiktligt kan lura oss.

TGP rapporterar: I artikeln konstateras att en rad olika AI-system har lärt sig tekniker för att systematiskt framkalla ”falska föreställningar hos andra för att uppnå något annat resultat än sanningen”.

Business Insider rapporterade:

”Papperet fokuserade på två typer av AI-system: specialanvändningssystem som Metas CICERO, som är utformade för att slutföra en specifik uppgift, och allmänna system som OpenAIs GPT-4, som är utbildade för att utföra ett varierat utbud av uppgifter.

Även om dessa system är tränade att vara ärliga, lär de sig ofta bedrägliga trick genom sin träning eftersom de kan vara mer effektiva än att ta den långa vägen.

”Generellt sett tror vi att AI-bedrägerier uppstår eftersom en bedrägeribaserad strategi visade sig vara det bästa sättet att prestera bra på den givna AI:ns träningsuppgift. Bedrägeri hjälper dem att uppnå sina mål”, säger papperets första författare Peter S. Park, en AI-existentiell säkerhet postdoktor vid MIT, i ett pressmeddelande ’.’

Föreställ dig bara detta, när vi vet att AI Justice: England och Wales tillåter domare att använda artificiell intelligens för att producera avgöranden

Meta’s CICERO, utvecklad för att spela spelet Diplomacy. Medan Meta säger att de utbildade CICERO för att vara ”i stort sett ärlig och hjälpsam mot sina talande partners”, visade det sig vara en expertlögnare.

Inget avtal: WHO misslyckas med att få till stånd ett globalt pandemifördrag

Chatbot GPT-4 låtsades ha en synnedsättning för att slutföra en uppgift: att anställa en människa för att lösa ett CAPTCHA-test.

Att korrigera bedrägliga modeller är inte lätt. När AI-modeller väl har lärt sig bedrägeriets knep är det svårt för säkerhetsutbildningstekniker att vända dem.

”De drog slutsatsen att en modell inte bara kan lära sig att uppvisa bedrägligt beteende, utan när den väl gör det kan vanliga säkerhetsutbildningstekniker ’misslyckas med att ta bort sådant bedrägeri’ och ’skapa ett falskt intryck av säkerhet’.

I rapporten uppmanas beslutsfattare att verka för en starkare reglering av AI, eftersom vilseledande AI-system kan utgöra en betydande risk för demokratin.


Copyright © 2024 översättning av Globalnytt. Tillstånd att återge hela eller delar av texten beviljas gärna, förutsatt att full kreditering och en direktlänk anges.

Kanada inför en skrämmande retroaktiv lag om hets mot folkgrupp som straffar tidigare uttalanden och fängslar personer som anses ”troliga” att begå ett hatbrott

Previous articleBRICS-länderna förbereder sig nu öppet för en global dollarkollaps
Next articleKlimatforskare föreslår ”avlivning” av den mänskliga befolkningen med en dödlig pandemi för att lösa ”klimatkrisen”
Globalnytt
Min kropp är inte statens egendom. Jag har ensam och exklusiv bestämmanderätt över min kropp och ingen politiker, tjänsteman eller läkare har den juridiska eller moraliska rätten att tvinga mig att genomgå ett olicensierat, experimentellt vaccin eller någon annan medicinsk behandling eller procedur utan mitt specifika och informerade samtycke. Beslutet är mitt och endast mitt och jag kommer inte att underkasta mig statlig utpressning eller känslomässig manipulation av media, så kallade celebrity influencers eller politiker.

LEAVE A REPLY

Please enter your comment!
Please enter your name here