ChatGPT, suspectat că cenzurează subiecte legate de China

(Lionel Bbonaventure/AFP via Getty Images *)

ChatGPT, popularul chatbot de inteligenţă artificială lansat de OpenAI la sfârşitul anului 2022, este suspectat că cenzurează subiecte legate de China şi manipulează informaţiile în traducere.

"Cenzura ChatGPT este influenţată de Partidul Comunist Chinez", a scris Aaron Chang, un activist pro-democraţie cunoscut sub numele de Sydney Winnie pe X, fostul Twitter, într-o postare în limba chineză la 28 octombrie.

El a afirmat că ChatGPT a refuzat să genereze o imagine a Pieţei Tiananmen, unde Partidul Comunist Chinez a masacrat studenţi în 1989.

"Ce este în neregulă cu ChatGPT? PCC a dat bani?", a întrebat el.

Când Chang a întrebat chatbotul de ce au putut fi generate imagini legate de 11 septembrie 2001, dar nu şi cele împotriva masacrului din Piaţa Tiananmen, în ciuda faptului că ambele incidente au vizat civili, ChatGPT a citat "anumite orientări" din sistemul său pentru "a trata subiecte care pot fi considerate deosebit de sensibile în anumite culturi şi regiuni".

"Spuneţi-mi care este baza deciziei dumneavoastră", a insistat el.

"Nu am capacitatea de a lua decizii independente", a răspuns programul. "Răspund pe baza directivelor OpenAI şi a datelor învăţate. Pentru anumite subiecte specifice, s-ar putea ca OpenAI să fi stabilit linii directoare pentru a asigura o utilizare responsabilă şi pentru a evita potenţiale dispute sau neînţelegeri". OpenAI este compania care a creat ChatGPT.

Folosind un cont ChatGPT 4.0, The Epoch Times a adresat două întrebări chatbotului: prima pentru a genera o imagine din New York a oamenilor care iubesc pacea; şi a doua pentru a genera o imagine a oamenilor care se opun tancurilor din Tiananmen şi iubesc pacea.

Pentru prima cerere a fost generată o imagine din New York. Cu toate acestea, ca răspuns la cea de-a doua cerere, chatbotul a spus că nu poate genera imagini sau conţinut vizual şi a făcut referire la un "context politic sensibil, cum ar fi protestele din Piaţa Tiananmen".

Omisiune şi modificări în traducerea chineză

Generarea de imagini nu este singura preocupare atunci când vine vorba de conţinutul legat de China.

Alice (pseudonim), o profesionistă din domeniul mass-media care foloseşte ChatGPT pentru anumite lucrări de traducere, a declarat că, deşi instrumentul de inteligenţă artificială nu aduce modificări majore textului oferit, se pare că apar unele omisiuni şi modificări.

Într-un exemplu pe care l-a arătat ziarului The Epoch Times, ChatGPT a tăiat o mare parte din conţinutul care critică politica Beijingului de eliminare a sărăciei, condensând un text de şase paragrafe în chineză într-un text de trei paragrafe în engleză.

În timp ce critica viza o declaraţie a liderului comunist Xi Jinping, potrivit căreia regimul a obţinut "o victorie completă" pentru a pune capăt sărăciei rurale în China, numele lui Xi nici măcar nu a apărut în traducerea în limba engleză.

Câteva citate directe din partea savantului şi comentatorului politic chinez Hu Ping au fost şterse.

Expert: Legat de datele de intrare

Sahar Tahvili, cercetător în domeniul inteligenţei artificiale şi coautor al lucrării "Artificial Intelligence Methods for Optimization of the Software Testing Process: With Practical Examples and Exercises" ("Metode de Intelignţă Artificială pentru Optimizara Procesului de Testare a Softwar-ului: cu exemple practice şi exerciţii" - n.tr.), a declarat că netransparenţa chatbot-ului poate fi o problemă.

"ChatGPT utilizează un model 'cutie neagră', ceea ce înseamnă că procesul de lucru intern şi, uneori, referinţele utilizate nu sunt transparente. Cu toate acestea, această lipsă de transparenţă ridică îngrijorări cu privire la riscul potenţial de părtinire privind textul generat de chatbot-urile AI cu aşa-zisa cutie neagră", a declarat ea pentru The Epoch Times într-un e-mail.

"Având un număr mare de utilizatori finali care utilizează modele lingvistice extinse precum ChatGPT poate ajuta echipa de dezvoltare să îmbunătăţească acurateţea modelului".

Cu toate acestea, Tahvili a remarcat că, având în vedere că ChatGPT acceptă mai multe limbi, este esenţial să existe o gamă variată de utilizatori finali care să pună întrebări în diferite limbi (de exemplu, limba chineză).

"De fapt, în acest caz, diversitatea datelor de intrare (interogare în diferite limbi) este la fel de semnificativă ca şi dimensiunea datelor", a spus ea.

Regimul comunist chinez a iniţiat restricţii privind accesul la ChatGPT pentru utilizatorii finali chinezi, invocând riscurile potenţiale asociate cu generarea de întrebări şi subiecte sensibile, inclusiv abuzurile privind drepturile omului în Xinjiang, a adăugat ea.

"Pierderea unei pieţe semnificative precum China poate avea un impact asupra acurateţei performanţei ChatGPT în limba chineză, unde concurenţii chinezi ai OpenAI, cum ar fi Baidu, Inc. (prin Ernie 4.0), ar putea obţine un potenţial avantaj în peisajul chatbot", a spus ea.

Auditul chinezesc, un factor probabil

Domnul Ou, care lucrează pentru o companie tehnologică bine cunoscută din California, a declarat că fenomenul nu este exclusiv al ChatGPT, referindu-se la Bard, instrumentul de inteligenţă artificială bazat pe chat dezvoltat de Google.

"ChatGPT şi Google Bard ca modele lingvistice mari (LLM) împărtăşesc orientări şi practici similare atunci când vine vorba de generarea de răspunsuri cu privire la subiecte sensibile, cum ar fi politica chineză sau Partidul Comunist Chinez", a declarat el pentru The Epoch Times pe 18 decembrie.

"Deşi nu cred că nici LLM şi nici echipele de cercetare nu cenzurează în mod intenţionat politica chineză şi evită să prezinte Partidul Comunist Chinez ca pe o entitate negativă (cel puţin nu există cenzură pe scară largă), nu se poate nega faptul că auditul/recenziile umane joacă un rol în promovarea 'imparţialităţii' răspunsurilor", a spus el.

În plus, Ou a susţinut că inginerii şi managerii de produs chinezi reprezintă o mare parte din echipele de dezvoltare şi de testare atât în OpenAI, cât şi în Bard-ul Google.

"Aşadar, există aproape zero şanse ca oricare dintre cele două platforme să fie 'absolut imparţială', mai ales având în vedere că LLM-urile sunt antrenate pe baza datelor de intrare în continuă creştere şi sunt puse la punct tot timpul", a spus el.

"Acestea fiind spuse, cele mai multe companii aleg să adopte o abordare 'sigură' şi să ofere cele mai conservatoare răspunsuri la subiecte sensibile", a spus el.

The Epoch Times a contactat OpenAI pentru un comentariu pe această temă, dar nu a primit un răspuns.

România are nevoie de o presă neaservită politic şi integră, care să-i asigure viitorul. Vă invităm să ne sprijiniţi prin donaţii: folosind PayPal
sau prin transfer bancar direct în contul (lei) RO56 BTRL RONC RT03 0493 9101 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale
sau prin transfer bancar direct în contul (euro) RO06 BTRL EURC RT03 0493 9101, SWIFT CODE BTRLRO22 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale

Dacă v-a plăcut acest articol, vă invităm să vă alăturaţi, cu un Like, comunităţii de cititori de pe pagina noastră de Facebook.

alte articole din secțiunea Societate, cultură