web analytics

Inteligența artificială a învățat acum cum să înșele oamenii

Parteneri

Lumea inteligenței artificiale se mișcă rapid. Am asistat la succesul chatbots cu inteligență artificială generativă, precum ChatGPT, și numeroase companii lucrează pentru a include inteligența artificială în aplicațiile și programele lor. În timp ce amenințarea IA încă planează, cercetătorii au ridicat unele preocupări interesante cu privire la cât de ușor ne minte IA și ce ar putea însemna acest lucru în viitor.

Un lucru care face ca ChatGPT și alte sisteme de inteligență artificială să fie dificil de utilizat este tendința lor de a „halucina” informații, inventându-le pe loc. Este un defect în modul în care funcționează IA și este unul care, potrivit cercetătorilor, ar putea fi extins pentru a permite IA să ne înșele și mai mult.

Dar este AI capabilă să ne mintă? Aceasta este o întrebare interesantă, la care cercetătorii care scriu în The Conversation cred că pot răspunde. Potrivit acestor cercetători, CICERO AI de la Meta este unul dintre cele mai tulburătoare exemple despre cât de înșelătoare poate fi IA. Acest model a fost conceput pentru a juca Diplomație, iar Meta spune că a fost construit pentru a fi „în mare parte onest și util”.

Cu toate acestea, atunci când analizează datele din experimentul CICERO, cercetătorii spun că CICERO s-a dovedit a fi un maestru al înșelăciunii. De fapt, CICERO a mers chiar atât de departe încât a premeditat înșelăciunea, unde a lucrat cu un jucător uman pentru a păcăli un alt jucător uman să se lase pradă unei invazii deschise.

A făcut acest lucru prin conspirarea cu jucătorul Germaniei și apoi prin colaborarea cu jucătorul Angliei pentru a-i determina să lase o deschidere în Marea Nordului. Puteți vedea dovezi ale modului în care AI a mințit și a lucrat împotriva jucătorilor pentru a-i înșela și a reuși să se impună. Este o dovadă interesantă și este doar unul dintre multele exemple pe care cercetătorii le-au observat la CICERO AI.

Am văzut, de asemenea, modele lingvistice mari, cum ar fi ChatGPT, care au fost folosite pentru capacități înșelătoare. Riscul aici este că ar putea fi folosit în mod abuziv în mai multe moduri diferite. Riscul potențial este „limitat doar de imaginația și de cunoștințele tehnice ale persoanelor rău intenționate”, notează cercetătorii în raportul lor.

Va fi interesant de văzut încotro se îndreaptă acest comportament, mai ales dacă învățarea comportamentului înșelător nu necesită intenția explicită de a înșela. Puteți citi concluziile complete ale cercetătorilor în postarea lor de pe The Conversation.