Inteligența artificială îngreunează tot mai mult identificarea plagiatelor, nu doar ajută împotriva fraudelor academice, iar problemele sunt abia la început – analiză Times Higher Education

Foto: © Wrightstudio | Dreamstime.com

Inteligența artificială va putea fi capabilă să scrie lucrări și să întreprindă anumite cercetări la fel de bine ca oamenii, ceea ce ridică întrebări serioase cu privire la folosirea ei pentru plagiat și alte forme de fraudă academică. Ea este folosită deja și în instrumente educaționale, de evaluare și de identificare a fraudelor, dar vor putea acestea să țină pasul cu trișorii? – se întreabă într-o amplă analiză Times Higher Education.

Aceasta pleacă de la tentația de când lumea a mediului academic de a rezista în fața noilor tehnologii, considerând că acestea afectează adevărata învățare. În vremurile mai recente, însă, se face simțit un salt de la teama sfârșitului anilor ’90, că internetul va duce la o explozie a plagiatelor, notată în profesorului american Phillip Dawson “Defending Assessment Security in a Digital World”, la explozia tehnologică recentă, ce îngreunează activitatea celor care apără integritatea academică.

THE îl citează pe Tomáš Foltýnek, expert de la Universitatea Mendel din Republica Cehă, potrivit căruia detectarea plagiatelor devine tot mai greu de realizat, chiar și cu ajutorul tehnologiilor avansate, din cauza instrumentelor de parafrazare automată, pasajele copiate astfel trebuind verificate în raport cu volume imense de date deținute de companii precum Turnitin.

THE îl citează pe un alt expert american, Jesse Stommel de la Universitatea Mary Washington din Virginia, potrivit căruia tehnologia poate fi invocată înșelător în discuțiile despre plagiat și fraudă. “Nevoia noastră este să construim relații pozitive cu studenții, în care să avem discuții inteligente despre munca lor, despre citări, despre ce înseamnă și cum arată plagiatul”, afirmă acesta, susținând că instrumentele tehnologice folosite atât pentru a plagia, cât și pentru a combate plagiatul subminează aceste relații pozitive.

Potrivit analizei citate, avansul inteligenței artificiale și a tehnologiilor ridică și probleme juridice, similare, într-o oarecare măsură, cu cele demonstrate de un bot Microsoft în urmă cu 5 ani, care imita discursul urii și atitudini părtinitoare în mesaje rasiste de pe Twitter. În acest sens, este citată o altă expertă, Lucinda McKnight, care se întreabă: “Dacă un bot încalcă legea, cine e responsabil? Compania care a creat bot-ul? Oamenii care au selectat materialul folosit pentru a instrui bot-ul? Aceasta va fi un domeniu juridic imens pe viitor (…) la care vor fi nevoiți să se gândească și profesorii și elevii”.

Foto: © Wrightstudio | Dreamstime.com

Dreamstime.com sprijină educaţia din România şi, în contextul pandemiei Covid-19, oferă gratuit imagini stock prin care Edupedu.ro îşi poate ilustra articolele cât mai relevant posibil.

Exit mobile version