Zašto je memorija postala ključna za chatbotove umjetne inteligencije?

TVRTKE koje se bave umjetnom inteligencijom suočavaju se s izazovom s kojim se ljudi bore otkako postoje: kako zadržati uspomene. OpenAI, Google, Meta i Microsoft posljednjih su se mjeseci fokusirali na pamćenje, objavljujući nadogradnje koje chatbotovima omogućuju pohranjivanje veće količine korisničkih informacija kako bi personalizirali svoje odgovore.
Taj se potez smatra važnim korakom u pomaganju vodećim grupacijama u području umjetne inteligencije da privuku korisnike na konkurentnom tržištu chatbotova i agenata, kao i sredstvom za generiranje prihoda od vrhunske tehnologije. No kritičari su upozorili da bi se taj razvoj također mogao zlorabiti za iskorištavanje korisnika u komercijalne svrhe te da bi mogao izazvati zabrinutost oko privatnosti, piše Financial Times.
Identificiranje konteksta iz vanjskih podataka
"Ako imate agenta koji vas stvarno poznaje jer je zapamtio razgovore, cijela usluga postaje privlačnija, pa kada jednom počnete koristiti jedan proizvod, nikada nećete prijeći na neki drugi", rekla je Pattie Maes, profesorica na Medijskom laboratoriju MIT-a i stručnjakinja za interakciju ljudi i umjetne inteligencije.
AI chatbotovi poput Googleova Geminija i OpenAI-eva ChatGPT-a ostvarili su veliki napredak. Poboljšanja uključuju proširenje prozora konteksta koji određuje koliko razgovora chatbot može zapamtiti odjednom i korištenje tehnika poput generiranja koje identificira relevantan kontekst iz vanjskih podataka.
Organizacije koje se bave umjetnom inteligencijom također su poboljšale dugoročnu memoriju AI modela pohranjivanjem korisničkih profila i preferencija kako bi pružile korisnije i personaliziranije odgovore. Na primjer, chatbot može zapamtiti je li korisnik vegetarijanac i u skladu s time odgovoriti kada daje preporuke za restorane ili recepte.
U ožujku je Google proširio memoriju Geminija na korisnikovu povijest pretraživanja, pod uvjetom da osoba pristane na takvo nešto, za razliku od prethodnog ograničenja na razgovore s chatbotom, te planira proširiti to i na druge Googleove aplikacije u budućnosti.
"Što vas chatbot bolje poznaje, bolju će uslugu pružiti"
"Baš kao s ljudskim asistentom, što više razumije vaše ciljeve, tko ste i što vam je važno, to će bolju uslugu moći pružiti", rekao je Michael Siliski, direktor upravljanja proizvodima u Google DeepMindu.
ChatGPT tvrtke OpenAI i Metin chatbot u WhatsAppu i Messengeru mogu se pozivati na prošle razgovore, umjesto samo na trenutačnu sesiju. Korisnici mogu izbrisati određena sjećanja u postavkama i bivaju obaviješteni kada model stvara sjećanje porukom na zaslonu.
"Memorija pomaže ChatGPT-u da s vremenom postane korisniji čineći odgovore relevantnijima", rekla je tvrtka OpenAI: "Uvijek imate kontrolu i možete pitati ChatGPT što pamti o vama, mijenjati spremljena sjećanja i prošle razgovore ili u bilo kojem trenutku isključiti memoriju."
Za poslovne korisnike Microsoft koristi organizacijske podatke za informiranje memorije, poput e-pošte, kalendara i internih datoteka. Tehnološki gigant u travnju je započeo s uvođenjem pretpregleda značajke Recall na nekim uređajima koja bilježi korisničke aktivnosti snimanjem zaslona računala. Korisnici mogu isključiti ovu značajku ili pauzirati snimanje zaslona.
Povećanje monetizacije putem partnerskog marketinga
Kada je ta značajka prvi put najavljena u svibnju prošle godine, izazvala je zabrinutost u zajednici za kibernetičku sigurnost i kod drugih koji su je nazvali jezivom, što je dovelo do višestrukog odgađanja njezina pokretanja.
AI tvrtke također smatraju da bi poboljšana memorija mogla igrati veliku ulogu u povećanju monetizacije putem partnerskog marketinga i oglašavanja. Izvršni direktor Mete Mark Zuckerberg nedavno je rekao da će postojati velika prilika za prikazivanje preporuka proizvoda ili oglasa na njihovu chatbotu.
U travnju je OpenAI poboljšao svoje funkcionalnosti za kupnju u ChatGPT-u kako bi bolje prikazivao proizvode, usluge i recenzije. Tvrtka je rekla za Financial Times da trenutačno nema partnerske poveznice.
No uvođenje veće memorijske sposobnosti u velikim jezičnim modelima također je izazvalo zabrinutost zbog privatnosti jer regulatori diljem svijeta pomno promatraju kako bi modeli mogli manipulirati korisnicima radi profita.
Rizik od pristranosti ili pogrešaka
Povećana memorija također može dovesti do toga da modeli previše nastoje prilagoditi svoje odgovore korisnikovim preferencijama, čime se mogu pojačati pristranosti ili pogreške. OpenAI se ispričao nakon što se pokazalo da je njegov model GPT-4o bio pretjerano laskav i povodljiv te je model vraćen na prethodnu verziju.
Općenitije govoreći, modeli umjetne inteligencije mogu halucinirati, stvarajući neistinite ili besmislene odgovore, i iskusiti "pomak memorije" kada sjećanja postanu zastarjela ili međusobno proturječna, što utječe na točnost.
"Što više sustav zna o vama, to se više može koristiti u negativne svrhe – kako bi vas se natjeralo da nešto kupite ili kako bi vas se uvjerilo u određena uvjerenja. Stoga morate početi razmišljati o temeljnim interesima tvrtki koje nude te usluge", rekla je Maes, profesorica s MIT-a.

bi Vas mogao zanimati
Izdvojeno
Pročitajte još
bi Vas mogao zanimati