„A halucina”, termen folosit în legătură cu unele informații false generate de inteligența artificială, desemnat cuvântul anului de dicționarul Cambridge

202 vizualizări
Foto: © Fr3ank33 | Dreamstime.com
Dicţionarul Cambridge a dezvăluit că ”hallucinate” (”a halucina”) a fost ales cuvântul anului 2023, după ce termenul a obţinut o definiţie suplimentară legată de producerea de informaţie falsă de către inteligenţa artificială (AI), informează DPA şi PA Media, transmite Agerpres.

Halucinaţiile AI, denumite şi confabulaţii, par câteodată absurde, dar pot părea pe deplin plauzibile, chiar şi atunci când sunt inexacte factual sau de-a dreptul ilogice.

Definiţia tradiţională a cuvântului ”a halucina” se referă la a vedea, auzi, simţi sau mirosi ceva care nu există, de obicei din cauza unei condiţii de sănătate sau în urma administrării unui drog.

Noua definiţie adiţională din Dicţionarul Cambridge spune: ”Când o formă de inteligenţă artificială (un sistem informatic care are o parte din calităţile creierului uman, cum ar fi abilitatea de a produce limbaj într-un fel care pare uman) halucinează înseamnă că produce informaţie falsă”.

După o creştere iniţială a interesului în ceea ce priveşte instrumente pentru inteligenţa artificială generativă (AI) cum ar fi ChatGPT, atenţia publicului a migrat către limitările AI şi a modalităţilor prin care acestea pot fi depăşite, conform Agerpres.

Instrumente AI, în special cele care folosesc modele lingvistice mari (LLM), s-au dovedit capabile de a genera discurs plauzibil, dar deseori face acest lucru folosind ”fapte” false, eronate sau inventate.

Acestea ”halucinează” într-o manieră încrezătoare şi câteodată credibilă.

”Faptul că AI-ul poate ‘halucina’ ne aminteşte că oamenii au în continuare nevoie să-şi aducă abilităţile de gândire critică în folosul acelor instrumente”, a spus Wendalyn Nichols, manager editorial al Dicţionarului Cambridge.

”AI sunt fantastice în ceea ce priveşte căutarea printr-o cantitate mare de date pentru a extrage informaţii specifice şi a le consolida”.

”Şi cu cât le ceri să fie mai originale, cu atât există probabilitatea mai mare de a o lua razna”, a mai spus ea, potrivit sursei citate.

”În cel mai bun caz, modelele lingvistice mari pot fi doar la fel de fiabile ca şi datele folosite pentru învăţare”.

”Expertiza umană este fără îndoială mai importantă – şi mai căutată – ca oricând, pentru a crea informaţii oficiale şi la zi pe baza cărora poate fi învăţat LLM-ul”.

Halucinaţiile AI au avut deja impact în lumea reală.

O firmă de avocatură din Statele Unite a folosit ChatGPT pentru documentare juridică, iar drept urmare a ajuns să menţioneze mai multe cazuri fictive în sala de judecată.

Iar într-un clip video promoţional Google pentru propriul chatbord, Bard, instrumentul AI a comis o eroare factuală referitoare la Telescopul Spaţial James Webb.

Noua definiţie ilustrează o tendinţa în creştere în ceea ce priveşte antropomorfizarea tehnologiei AI, folosirea unor metafore umane atunci când vorbim, scriem sau gândim despre maşini.

”Folosirea răspândită a termenului ‘halucina’ în legătură cu greşeli produse de sisteme precum ChatGPT oferă o perspectivă fascinantă a felului în care gândim despre inteligenţa artificială şi a felului în care o antropomorfizăm.

”Informaţii inexacte şi amăgitoare au existat dintotdeauna, fie că a fost vorba despre zvonuri, propagandă sau ”fake news”’, a spus Henry Shevlin, specialist în etică AI la Universitatea Cambridge.

”În timp ce acestea sunt considerate în mod normal produsul minţii umane, ‘a halucina’ este un verb sugestiv, care se referă la un subiect ce experimentează o deconectare de la realitate”, mai transmite Agerpres.

”Alegerea lingvistică reflectă o mişcare subtilă, dar profundă în ceea ce priveşte percepţia: AI-ul, nu utilizatorul, este cel care ‘halucinează”’.

”Deşi acest lucru nu sugerează credinţa extinsă în înţelepciunea AI, subliniază disponibilitatea noastră de a atribui atribute similare celor umane inteligenţei artificiale.”

”Pe măsură ce acest deceniu trece, mă aştept ca vocabularul nostru psihologic să se extindă suplimentar pentru a cuprinde abilităţi stranii ale noilor inteligenţe pe care le creăm”.

Foto: © Fr3ank33 | Dreamstime.com / Dreamstime.com sprijină educaţia din România şi oferă gratuit imagini stock prin care Edupedu.ro îşi poate ilustra articolele cât mai relevant posibil / Campania Back to school oferă posibilitatea oricărei școli, profesor sau elev să descarce imagini de calitate cu 50% discount.


1 comment
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

You May Also Like

Marcel Ciolacu, discurs pentru studenți: „Nimic din ce se întâmplă acum nu exista când eu eram de vârsta voastră. Atunci era o luptă pentru supraviețuire, unde studiile universitare nu-ți asigurau automat un loc de muncă bine plătit” / Comentariile candidatului PSD la președinție vin în contextul controverselor privind diploma sa de Bacalaureat

Valoarea studiilor universitare a fost unul dintre punctele-cheie într-un discurs rostit, miercuri, de premierul Marcel Ciolacu la deschiderea forumului Studenților Români de Pretutindeni. Ciolacu, desemnat candidat PSD la viitoarele alegeri…
Vezi articolul

Dan Petre, D&D Research: Educația financiară ar trebui să înceapă de la 4-5 ani, cu gestionarea jucăriilor. Pentru tineri, banii se convertesc direct în experiențe

Educația finaciară începe, prin programe auxiliare și materii suplimentare, opționale, abia la școală. Pentru unii, chiar dupa 14 ani, spun specialiștii. Potrivit psihologului Dan Petre, fondator al companiei de cercetare…
Vezi articolul

Rata de absolvire la licee teoretice este în scădere – studiu al Institutului de Științe ale Educației. Mulți elevi se gândesc să renunțe la școală după primul an de liceu pentru că nu învață lucruri care să le fie de folos în viață. Alte motive: elevii simt că au rămas în urmă la învățătură și că pierd mult timp pe drum spre liceu

Mulți elevi care ajung în clasa a X-a se gândesc să renunțe la școală pentru că nu învață lucruri noi, care să îi ajute în viață, arată un studiu recent…
Vezi articolul