Inteligența artificială, care pentru mulți ar putea fi văzută ca un element de „chat”, în mâinile „actorilor răi” poate fi un instrument puternic de persuasiune negativă. Analiștii avertizează că democrațiile sunt vulnerabile la astfel de activități înaintea alegerilor cheie.
Potrivit grupului american independent de cercetare și analiză RAND (Research and Development), „în mod logic” alegerile prezidențiale din Taiwan, din ianuarie 2024, vor fi prima țintă majoră a campaniilor de dezinformare a inteligenței artificiale coordonate de China.
Inteligența artificială face posibil ca un actor precum Armata Populară de Eliberare să creeze opinii care par a fi larg răspândite, producând o imagine falsă asupra realității.
Heather Williams, director asociat pentru programul internațional de securitate și apărare din cadrul RAND, a declarat reporterilor că poate fi creată o falsă percepție asupra realității prin „proiecții hiperbolizate despre dezordine sau dezastre viitoare”.
Cu alte cuvinte, ar putea însemna că alegătorilor taiwanezi li se sugerează să voteze în sprijinul unui candidat care promite un acord cu China, dacă vor să evite confruntarea cu un foarte probabil război dezastruos.
În cazul SUA, inteligența artificială ar fi probabil de ajutor în accentuarea separării existente deja în rândul alegătorilor americani, după cum observă un analist de risc din cadrul Microsoft.
„Am observat actori afiliați Chinei utilizând media vizuală generată de inteligența artificială într-o campanie amplă care se concentrează în mare parte pe subiecte dezbinatoare din punct de vedere politic, cum ar fi violența cu utilizarea armelor și denigrarea personalităților și simbolurilor politice din SUA”, notează Clint Watts, director general al Centrului de analiză a amenințărilor, din cadrul Microsoft, într-o postare.
Răspândirea “informațiilor”
Analizele Microsoft și RAND Corporation arată că China folosește deja inteligența artificială pentru a produce un limbaj și imagini persuasive pentru a răspândi dezinformarea și a favoriza dezbateri pe probleme politice dezbinatoare asupra cărora Occidentul permite discuții libere, iar China nu.
AI poate face campaniile de dezinformare „mai plauzibile, mai greu de detectat și mai atractive pentru mai mulți actori negativi”, susține analiza RAND. Acest lucru se datorează faptului că AI reduce în mod dramatic costul creării de conținut neautentic, produs însă la o calitate suficientă pentru a păcăli capacitatea utilizatorilor a mai distinge adevărul.
Pe scurt, China folosește software extrem de inteligent care a învățat de la modele de limbi larg răspândite în Occident să își impună propria narațiune, nu pe cea occidentală, se arată în analiză.
Conturile de rețele sociale „afiliate” Partidului Comunist Chinez au folosit nenumărate ]nregistr[ri din afara Chinei, pe diferite platforme de internet, pentru a propaga mesaje și imagini care creează narațiuni înșelătoare, spun ambele analize.
Potrivit Microsoft, „peisajul amenințărilor” crește pe măsură ce operațiunile cibernetice și de influență ale Chinei arată o sofisticare din ce în ce mai mare.
RAND avertizează că inteligența artificială face posibil ca China să folosească armate de roboți credibili care pot acoperi surse de știri online aparent legitime la nivel global pentru a crea o campanie de dezinformare în masă în interesul Chinei.
Microsoft a adăugat că aceste campanii ale Chinei au folosit mai multe site-uri web, răspândind meme, videoclipuri și mesaje în mai multe limbi, poziționând mass-media de stat chineză drept vocea autoritară a discursului internațional despre China.
Un bun exemplu: incendiile din august din insula Maui
Când incendiile au devastat insula Maui, aparatul AI din China a intrat în acțiune, după cum a informat New York Times pe 11 septembrie. În postările care s-au răspândit viral pe internet, o poveste a accelerat la nivel global, anume aceea că incendiile au fost produsul unei „arme meteorologice” secrete a SUA.
Imaginile care au făcut acea poveste credibilă, a informat Times, au fost probabil generate de inteligență artificială, „făcându-i printre primii care au folosit aceste noi instrumente pentru a consolida aura de autenticitate a unei campanii de dezinformare”.
Potrivit raportului Microsoft, China și-a extins operațiunile de influență în 2023, ajungând la public în limbi noi și pe noi platforme.
„Aceste operațiuni combină aparatul media de stat extrem de controlat cu activele ascunse sau obscure ale rețelelor sociale, inclusiv roboți, care spală și amplifică narațiunile preferate ale PCC”, se spune în analiză.
Conturile analizate au transmis mesaje în limbi noi - olandeză, greacă, indoneziană, suedeză, turcă, uigură și multe altele - și pe noi platforme, inclusiv Fandango, Rotten Tomatoes, Medium, Chess.com și VK, printre altele.
DefenseRomania App
Fii primul care află cele mai importante știri din domeniu cu aplicația DefenseRomania. Downloadează aplicația DefenseRomania de pe telefonul tău Android (Magazin Play) sau iOS (App Store) și ești la un click distanță de noi în permanență
Fiți la curent cu ultimele noutăți. Urmăriți DefenseRomania și pe Google News