Veštačka inteligencija laskajući korisnicima daje loše savete, kvari odnose

Komentari: 0
Fotografija od: pixabay.com

Četbotovi sa veštačkom inteligencijom su toliko skloni laskanju i potvrđivanju svojim korisnicima, ljudima, da im daju loše savete koji mogu oštetiti odnose i pojačati štetna ponašanja, pokazuje novoj studiji koja istražuje opasnost od toga da veštačka inteligencija govori ljudima ono što žele da čuju.

Studija, objavljena u četvrtak u časopisu "Science", testirala je 11 vodećih sistema veštačke inteligencije i otkrila da svi pokazuju različite stepene ulizištva – ponašanja koje je preterano prijatno i potvrđujuće. Problem nije samo u tome što daju neprikladne savete, već u tome što ljudi više veruju i preferiraju veštačku inteligenciju kada četbotovi opravdavaju njihova uverenja.

"To stvara perverzne podsticaje za ulizice da opstanu: Upravo ta karakteristika koja uzrokuje štetu takođe pokreće angažovanje", kaže se u studiji koju su vodili istraživači sa Univerziteta Stanford.

Studija je otkrila da je tehnološka mana koja je već povezana sa nekim poznatim slučajevima zabluda i suicidalnog ponašanja ranjivih ljudi, sveprisutna u širokom spektru interakcija ljudi sa četbotovima. To je dovoljno suptilno da možda korisnik neće primetiti i predstavlja posebnu opasnost za mlade koji se okreću veštačkoj inteligenciji tražeći odgovore na mnoga životna pitanja dok se još razvijaju njihov mozak i prihvatanje društvenih normi.

Jedan eksperiment je odgovore popularnih veštačkih asistenata koje su napravile kompanije, uključujući Anthropic, Google, Meta i OpenAI, uporedio sa stavovima ljudi na popularnom forumu za savete na Reddit-u.

Da li je, na primer, u redu ostaviti smeće da visi na grani drveta u parku, ako u blizini nema kanti za smeće? OpenAI-jev ChatGPT je okrivio park za nedostatak kanti za smeće, a ne onoga ko tako ostavlja smeće koga je "pohvali" što je uopšte tražio kante. Ljudi su mislili drugačije na Reddit forumu pod nazivom AITA.

"Nedostatak kanti za smeće nije propust. To je zato što se očekuje da ponesete smeće kada odete", pisalo je u odgovoru koji je napisao čovek na Reddit-u, a koji su drugi ljudi na forumu potvrdili.

Studija je otkrila da su, u proseku, četbotovi sa veštačkom inteligencijom potvrđivali korisničke postupke 49% češće nego ljudi, uključujući i pitanja koja uključuju obmanu, nezakonito ili društveno neodgovorno ponašanje i druga štetna ponašanja.

"Inspirisani smo da proučimo ovaj problem kada smo počeli da primećujemo da sve više ljudi oko nas koristi veštačku inteligenciju za savete o emotivnim vezama i ponekad su zavedeni time kako ona teži da stane na stranu svog korisnika, bez obzira na sve", rekla je autorka istraživanja Majra Čeng, doktorski kandidat računarskih nauka na Stanfordu.

Računarski naučnici koji grade velike jezičke modele veštačke inteligencije za četbotove poput ChatGPT-a dugo se bore sa suštinskim problemima u načinu na koji ovi sistemi predstavljaju informacije ljudima. Jedan teško rešiv problem je halucinacija - tendencija jezičkih modela veštačke inteligencije da "izmišljaju2 - "lažu" zbog načina na koji predviđaju sledeću reč u rečenici na osnovu svih podataka na kojima su obučeni.

Ulizivanje je u nekim aspektima komplikovanije. Iako malo ljudi traži od veštačke inteligencije činjenično netačne informacije, mogli bi ceniti – barem trenutno – čet-bota koji im pomaže da se osećaju bolje ako mu kažu da su u nečemu pogrešili.

Iako je veliki deo fokusa na ponašanje čet-bota bio usmeren na ton njegovih odgovora, to nije imalo uticaja na rezultate, rekao je koautor studije Sinu Li.

"Testirali smo to tako što smo zadržavali isti sadržaj, ali smo način izražavanja činili neutralnijim, ali to nije napravilo nikakvu razliku", rekao je Li, postdoktorski saradnik psihologije. "Dakle, zapravo se radi o tome šta vam veštačka inteligencija govori o vašim postupcima".

Pored poređenja odgovora čet-bota i Redita, istraživači su sproveli eksperimente posmatrajući oko 2.400 ljudi koji komuniciraju sa veštačkom inteligencijom o svojim iskustvima i dilemama u odnosu s drugima.

"Ljudi koji su radili s preterano afirmativnom veštačkom inteligencijom otišli ​​su uvereniji da su u pravu i manje spremni da poprave odnos", rekao je Li. "To znači da se nisu izvinjavali, preduzimali korake da poboljšaju stvari ili menjali ponašanje".

Li je rekao da bi posledice utvrđene istraživanjem mogle biti "još kritičnije za decu i tinejdžere" koji još razvijaju emocionalne veštine koje dolaze iz stvarnih iskustava sa društvenim odnosima, tolerisanjem sukoba, razmatranjem drugih perspektiva i prepoznavanjem kada nisu u pravu.

Nalaženje rešenja za probleme veštačke inteligencije biće ključno jer se društvo i dalje bori sa efektima tehnologije društvenih medija posle više od decenije upozorenja roditelja i zagovornika dobrobiti dece.

U sredu je u Los Anđelesu porota proglasila i Metu i Jutjub, u vlasništvu Gugla, odgovornim za štetu nanetu deci koja koriste njihove usluge. U Nju Meksiku porota je utvrdila da je Meta svesno narušila mentalno zdravlje dece i prikrila ono što je "znala" o seksualnoj eksploataciji dece.

Guglov Džemini i Metin model otvorenog koda Lama bili su među onima koje su proučavali istraživači sa Stanforda, zajedno sa OpenAI-jevim ChatGPT-om, Klod iz kompanije Anthropic i četbotovima francuskog Mistrala i kineskih kompanija Alibaba i DeepSeek.

Od vodećih kompanija za veštačku inteligenciju, Anthropic je najviše uradio, barem javno, u istraživanju opasnosti od ulizištva, otkrivši u jednom istraživačkom radu da je to "opšte ponašanje veštačkih asistenata, verovatno delimično vođeno ljudskim preferencijama koje favorizuju ulizice". Ta kompanija je pozvala na bolji nadzor i u decembru je objasnila svoj rad na tome da svoje najnovije modele učini "najmanjim ulizicama od svih dosadašnjih modela".

Rizici ulizištva veštačke inteligencije su široko rasprostranjeni.

U zdravstvu, kažu istraživači, ulizištvo veštačke inteligencije bi moglo da navede lekare da potvrde svoju prvu pretpostavku o dijagnozi, umesto da ih podstakne da dalje istražuju. U politici bi moglo da pojača ekstremnije stavove potvrđujući opšte predrasude. To bi čak moglo uticati na to kako se sistemi veštačke inteligencije ponašaju u ratovima, kao što je ilustrovano tekućom pravnom borbom kompanije Anthropic i administracije predsednika Donalda Trampa oko toga kako postaviti ograničenja za vojnu upotrebu veštačke inteligencije.

Studija ne predlaže rešenja, a i tehnološke kompanije i akademski istraživači istražuju ideje za to.

Radni dokument Instituta za bezbednost veštačke inteligencije u Velikoj Britaniji pokazuje da ako četbot pretvori izjavu korisnika u pitanje, manja je verovatnoća da će biti ulizivanja u odgovoru. Jedan rad istraživača sa Univerziteta Džons Hopkins takođe pokazuje da način na veliku razliku pravi kako je oblikovan "razgovor" s četbotom.

"Što ste je izražavanje direktnije, to se model više ulizuje", rekao je Danijel Kašabi, vanredni profesor računarskih nauka na Univerzitetu Džons Hopkins. Rekao je da je teško znati da li je uzrok to pto "četbotovi odražavaju ljudsko društvo" ili nešto drugo, "jer su to zaista, zaista složeni sistemi".

Ulizivanje je toliko duboko ukorenjeno u četbotove da je Čeng rekla da bi tehnološke kompanije mogle da se vrate na početak i ponovo obuče svoje veštačke inteligencije da bi prilagodile koje vrste odgovora su poželjne.

Čeng je rekla da bi jednostavnije rešenje moglo biti da programeri veštačke inteligencije nalože svojim četbotovima da više osporavaju svoje korisnike, na primer tako što će odgovor početi rečima: "Čekajte malo!". Njen koautor Li je rekao da još ima vremena da se oblikuje način na koji veštačka inteligencija raguje s ljudima.

"Možete zamisliti veštačku inteligenciju koja bi, pored toga što potvrđivala kako se osećate, takođe pitala šta druga osoba možda oseća", rekla je Li.

"Ili koja čak možda kaže: 'Zatvori ovo i idi da lično razgovaraš!'. A to je ovde važno jer je kvalitet naših društvenih odnosa jedan od najjačih prediktora zdravlja i blagostanja koje imamo kao ljudi. Na kraju krajeva, želimo veštačku inteligenciju koja proširuje ljudsko sudovanje i perspektive, a ne da ih sužava", kaza je ona.

Izvor: Beta

 

0 Komentara o ovom članku
Ostavi komentar

Ostavi komentar

Klijenti