Robert Coravu

Impostura asistată de tehnologie

Progresul cunoașterii se regăsește în instrumente care pot fi folosite pentru a îmbunătăți calitatea vieții sau dimpotrivă, pentru a ucide, a distruge, a manipula, pentru a atinge un anumit scop fără a ține cont de considerente morale sau etice. Alfred Nobel a inventat dinamita căutând să ușureze munca lucrătorilor din industria minieră și din construcții, dar a ajuns să fie numit negustorul morții din cauza utilizării ei în scopuri militare. Energia nucleară poate fi convertită în energie electrică, dar stă și la baza fabricării unor arme cu impact catastrofal pentru omenire. Internetul este un instrument care a schimbat radical modul în care ne informăm și comunicăm, o bază uriașă de informații valoroase și utile și, în același timp, un vehicul eficient al dezinformării. Mai nou, aplicațiile inteligenței artificiale de genul ChatGPT impresionează prin oportunitățile pe care le oferă dar și îngrijorează din cauza consecințelor negative, identificate sau doar întrevăzute ale utilizării lor.

Odată apărută o tehnologie, evoluția și modalitățile ei de utilizare pot fi reglementate, restricționate, sancționate, dar nu împiedicate. Nu este vorba de a urmări sau nu „progresul cu orice preț”, ci de probabilitatea acțiunii unor forțe din a căror ecuație nu face parte factorul etic. Dacă oamenii de știință de bună credință pot asimila niște limite etice ale clonării, nu există nicio garanție că ele nu vor fi depășite la un moment dat de către unii care nu au asemenea scrupule. Sau, revenind la inteligența artificială, dacă acordul solicitat într-o scrisoare deschisă semnată de Elon Musk alături de peste 1000 de experți din industrie pentru o pauză de șase luni în antrenarea unor sisteme mai puternice decât cele existente la ora actuală, invocând „potențiale riscuri pentru societate și umanitate”, ar fi acceptat de unii dezvoltatori, cu siguranță se vor găsi alții care să profite de acest interval pentru a o lua înaintea concurenței. Se speculează că însuși multimiliardarul sud-african ar fi unul dintre ei, Musk încercând să câștige timp pentru dezvoltarea propriului chatbot, pe care l-a denumit pompos TruthGPT.  

Respingând, așadar, abordarea maniheistă a progresului tehnologic, în același timp nu putem să ignorăm faptul că, exploatată de persoane rău intenționate sau doar needucate/incompetente, tehnologia amplifică influența și impactul indivizilor respectivi asupra semenilor și, în unele situații, asupra societății în ansamblu. În contextul utilizării internetului și al rețelelor de socializare, Umberto Eco semnala, apelând la formulări contondente, efectul pe care-l au „legiunile de imbecili care înainte vorbeau numai la bar după un pahar de vin, fără a dăuna colectivității” și „idiotul satului” (al satului global, aș completa), care este promovat drept „purtător de adevăr” [1]. Tehnologiile informației și comunicării actuale conferă putere nu doar unor indivizi care își exprimă opiniile cu privire la subiecte pentru care nu au competența necesară, ci și celor care au astfel oportunitatea să-și exhibe frustrările personale sau care dezinformează, dezbină ori escrochează cu program, de multe ori sub protecția unor identități false. Idealul oricărui impostor de a-și ascunde cât mai bine fața autentică și a obține beneficii de pe urma unor identități sau calități (ex. calitatea de autor) pe care și le asumă în mod fraudulos găsește în internet un mediu favorabil. Tot aici, producătorii de conținut au acces la instrumente care le permit să creeze falsuri din ce în ce mai greu de identificat.

Putem spune că practicile de exploatare a tehnologiilor informației și comunicării cu scopul de a înșela descriu o formă de imposturăasistată de tehnologie. Eficiența ei este cu atât mai mare cu cât tehnologia la care apelează impostorul e mai avansată. Tehnologia deepfake, bazată pe inteligența artificială, a fost cea dintâi care a ridicat temperatura preocupărilor privind fenomenul dezinformării din cauza calității imaginilor și înregistrări audio sau video care pot fi fabricate cu ajutorul ei. Mai recent, aplicațiile AI din categoria chatboților au stârnit îngrijorări legitime, între altele, din cauza ușurinței cu care se pot obține texte care pot fi prezentate ulterior drept creații proprii – îngrijorare care vizează și alte tipuri de conținut generat de AI, precum imaginile [2] – dar și din cauză că aceste aplicații pot fi configurate astfel încât să producă informații contrafactuale sau să formuleze răspunsuri biasate politic.

sursă imagine: aici

În privința plagiatului asistat de tehnologie au început să apară soluții care discern conținutul original de cel produs de inteligența artificială – până și compania care a lansat ChatGPT a anunțat că dezvoltă un instrument (OpenAI AI Text Classifier) dedicat identificării textelor generate de AI. Ca să răspundă îngrijorărilor din mediul academic, producătorii softului Turnitin au anunțat că au înglobat o facilitate capabilă să detecteze textele generate sau al căror proces de elaborare a fost asistat de aplicații din categoria ChatGPT, însă eficiența ei e deocamdată discutabilă din cauza rezultatelor fals pozitive pe care le poate returna [3]. Producătorii Turnitin afirmă că probabilitatea apariției unui rezultat fals pozitiv (identificarea în mod incorect a unui text elaborat integral de om ca fiind generat de AI) s-ar situa sub 1%, ceea ce înseamnă că, deși foarte mică, ea nu este nulă. La fel ca în situația verificării similitudinilor, producătorii atrag atenția că rezultatul acesteia nu reprezintă un verdict, ci o semnalare, deci decizia finală îi aparține unui evaluator uman. Pe ce bază va decide, însă, evaluatorul uman dacă lucrarea sau fragmentul de text asupra căruia avertizează Turnitin sunt generate de AI sau e vorba de un rezultat fals pozitiv? Spre deosebire de verificarea similitudinilor, când Turnitin face trimitere la unul sau mai multe documente în care a identificat similitudinile respective, iar evaluatorul uman poate astfel să verifice el însuși dacă este vorba cu adevărat de o preluare frauduloasă, în situația semnalării unui conținut posibil să fie generat de AI nu avem la dispoziție asemenea probe. Orice decizie ar lua un evaluator uman – să ia sau nu în considerare ce-i semnalează softul – este pur subiectivă.

Să ne imaginăm o situație familiară în spațiul nostru public: în urma verificării cu Turnitin sau cu un soft similar, un politician este acuzat că o parte din teza sa de doctorat a fost scrisă de un chatbot. Conform tradiției, politicianul respinge vehement acuzația și se declară victima unei cabale politice. Ce poate judeca în acest caz un terț – un cetățean obișnuit sau o instanță, fie ea academică sau judiciară? În plagiatul „clasic” încălcarea regulilor poate fi dovedită cu ușurință prin afișarea în paralel, pe două coloane a textului analizat și a celui din care s-a preluat. Orice persoană de bun-simț poate astfel să recunoască forma flagrantă a plagiatului realizat prin mijloace tradiționale. Pentru plagiatul care se folosește de AI, rezultatul verificării cu un soft este singura probă care poate fi invocată, una care nu mai este evidentă pentru publicul larg: avem niște algoritmi care identifică alți algoritmi, într-un mod obscur pentru covârșitoarea majoritate a cetățenilor planetei (i.e. cei care nu sunt specialiști în inteligența artificială). Ar putea fi luată în considerare o asemenea probă într-un litigiu? Poate că da, într-o bună zi, dar până atunci impostorii politico-academici se pot declara doctori cinstiți cu și mai multă vehemență decât semenii lor expuși oprobiului public în urma unor investigații jurnalistice care făceau vizibile pentru oricine dovezile fraudei.

Pentru creatorii de știri false, pentru propagandiștii de toate culorile, pentru credincioșii în teorii ale conspirației și iubitorii de „fapte alternative” aplicațiile de generare de conținut bazate pe inteligența artificială reprezintă descoperirea supremă. Un instrument de tipul ChatGPT învață și răspunde pe baza datelor și informațiilor la care îi dau acces cei care-l programează. Un asemenea chatbot, configurat să se alimenteze exclusiv din surse care propagă știri false, va genera texte din aceeași categorie, conform principiului garbage ingarbage out. Iar o aplicație de generare de imagini va produce imagini „istorice” foarte realiste în sprijinul celor mai fanteziste teorii ale conspirației. Dezinformarea câștigă în rapiditate și eficiență, eliminând efortul uman din procesul de elaborare a mesajelor prin care e diseminată.

Este de așteptat, așadar, să asistăm în viitorul apropiat la un potop de texte, imagini și înregistrări de toate tipurile fabricate de aplicațiile inteligenței artificiale la comanda unor agenți ai dezinformării și manipulării, care va inunda mediul online și poate ne va face la un moment dat, prin comparație, să zâmbim cu nostalgie și înțelegere față de naivitatea cu care, înainte de apariția acestor aplicații, ne plângeam de cantitatea de informații incorecte și nocive din internet. Diferența dintre autentic și fals va fi cu atât mai greu de făcut.   

[1] FLOREA-HARRISON, Ana Maria; BACONSCHI, Ștefan. Umberto Eco: Rețelele sociale dau dreptul la cuvânt unor legiuni de imbecili. În: RFI România [online], 25.07.2015. [Accesat: 22.04.2023]. Disponibil la: https://www.rfi.ro/cultura-80098-umberto-eco-retelele-sociale-dau-dreptul-la-cuvant-unor-legiuni-de-imbecili.

[2] De curând, un fotograf german a refuzat premiul întâi pe care-l obținuse la un concurs internațional, declarând că s-a înscris în competiție cu o imagine generată de AI ca să testeze cât de pregătită este comunitatea sa profesională să facă distincția între un conținut original și unul produs de inteligența artificială – vezi Photography award winner admits image was AI-generated. În: Deutsche Welle [online], 18.04.2023. [Accesat: 23.04.2023]. Disponibil la: https://www.dw.com/en/german-photography-award-winner-admits-image-was-ai-generated/a-65360367.

[3] Fowler, Geoffrey A. We tested a new ChatGPT-detector for teachers. It flagged an innocent student. În: The Washington Post [online], 3.04.2023. [Accesat 14.04.2023]. Disponibil la: https://www.washingtonpost.com/technology/2023/04/01/chatgpt-cheating-detection-turnitin.

INDICAȚII DE CITARE:

Robert Coravu „Impostura asistată de tehnologie” în Anthropos. Revista de filosofie, arte și umanioare nr. 4/2023

Acest articol este protejat de legea drepturilor de autor; orice reproducere / preluare integrală sau parțială, fără indicarea sursei, este strict interzisă.

%d blogeri au apreciat: