Inteligenţa artificială poate fi exploatată de hackeri, susţin cercetătorii

Progresul rapid al inteligenţei artificiale creşte riscul ca hackerii să exploateze tehnologia pentru atacuri ce pot provoca accidente ale maşinilor autonome sau să transforme dronele comerciale în arme, avertizează un nou studiu.
.
. (pixabay)

Studiul publicat de 25 de cercetători din domeniul tehnic şi politicilor publice de la Universităţile Cambridge, Oxford şi Yale împreună cu experţi privaţi şi militari, a tras un semnal de alarmă privind posibila utilizare abuzivă a inteligenţei artificiale (AI) de către statele nedemocrate, criminali sau hackeri.

Cercetătorii au mai susţinut că folosirea abuzivă a inteligenţei artificiale reprezintă o ameninţare iminentă la adresa securităţii digitale, fizice şi politice, permiţând atacuri foarte eficiente pe o scară largă şi bine direcţionate. Studiul se concentrează pe posibile evoluţii ale acestei tehnologii în următorii cinci ani.

"Suntem cu toţii de acord că există o mulţime de aplicaţii pozitive ale inteligenţei artificiale. Există însă o lacună în literatura de specialitate în legătură cu problema utilizării rău intenţionate a acestei inteligenţe", afirmă Miles Brundage, cercetător la "Institutul pentru Viitorul Umanităţii" de la Oxford.

Inteligenţa artificială implică folosirea computerelor pentru a îndeplini sarcini care în mod normal solicită inteligenţă umană, precum luarea de decizii, recunoaşterea de texte, vorbirea sau imagini vizuale.

Este considerată o forţă puternică care permite deblocarea multor posibilităţi tehnice, însă a devenit un subiect stringent de dezbatere dacă automatizarea masivă pe care o permite poate genera şomaj pe scară largă sau alte dislocări sociale.

Documentul de 98 de pagini avertizează că acest cost al atacurilor poate fi redus prin utilizarea AI pentru îndeplinirea sarcinilor care altfel ar necesita muncă şi expertiză umană. Pot apărea noi tipuri de atacuri care nu ar putea fi dezvoltate de oameni sau care pot explora vulnerabilităţile sistemelor AI.

Studiul examinează cercetările unui grup din ce în ce mai mare de academicieni asupra riscurilor de securitate ale inteligenţei artificiale şi solicită guvernelor şi experţilor politici şi tehnici să colaboreze şi să anihileze aceste pericole.

Cercetătorii vorbesc în detaliu despre puterea inteligenţei artificiale de a genera imagini sintetice, texte şi fişiere audio pentru a influenţa opinia publică, reiterând ameninţarea că regimurile autoritate ar putea utiliza astfel de tehnologii.

Raportul face o serie de recomandări care includ reglementarea AI ca tehnologie militară / comercială cu dublă utilizare.

Studiul ridică întrebarea dacă cercetătorii ar trebui să nu mai facă publice noutăţile din domeniul inteligenţei artificiale până când alţi experţi în domeniu le pot studia şi a avertizat în legătură cu posibilele pericole pe care le-ar putea prezenta.

"În final, am ajuns să avea mai multe întrebări decât răspunsuri", a mai afirmat Brundage.

Studiul a luat naştere la un workshop la începutul anului 2017 şi unele dintre prezicerile sale s-au adeverit deja în timp ce erau formulate. Autorii speculează că inteligenţa artificială ar putea fi folosită pentru a crea materiale audio şi video false dar foarte realiste în scopuri propagandistice.

La sfârşitul anului trecut, au apărut fişiere video pornografice „falsificate cu mare fidelitate”, feţele celebrităţilor fiind puse pe diferite trupuri în mod realist.

"Inteligenţa artificială a fost utilizată mai degrabă în pornografie decât în propagandă" a notat Jack Clark, şeful de politici de la "Open Artificial Intelligence", grup fondat de şeful Tesla Inc, Elon Musk, şi investitorul Silicon Valley, Sam Altman, ambii concentrându-se să aducă beneficii umanităţii. Dar nu se spune niciun cuvânt despre fişierele "falsificate cu mare fidelitate", care ar putea fi folosite ca mijloace de propagandă.

România are nevoie de o presă neaservită politic şi integră, care să-i asigure viitorul. Vă invităm să ne sprijiniţi prin donaţii: folosind PayPal
sau prin transfer bancar direct în contul (lei) RO56 BTRL RONC RT03 0493 9101 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale
sau prin transfer bancar direct în contul (euro) RO06 BTRL EURC RT03 0493 9101, SWIFT CODE BTRLRO22 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale

Dacă v-a plăcut acest articol, vă invităm să vă alăturaţi, cu un Like, comunităţii de cititori de pe pagina noastră de Facebook.

alte articole din secțiunea Societate, cultură