În anii 60 și 70 ai secolului trecut, Agenția americană pentru Proiecte de Cercetare Avansată a Apărării (DARPA) a înțeles uriașul potențial al circuitelor integrate logice pentru domeniul telecomunicațiilor și a demarat proiectul ARPANET, care ne-a adus Internetul.
Acum, la 50 de ani distanță, în același domeniu al prelucrării informației, DARPA sesizează că lumea se află în pragul unei noi transformări. Am învățat să transmitem și să recepționăm cantități foarte mari de informație, dar când vine vorba de a analiza rapid și a înțelege semnificația acesteia, începem să aproximăm și să simplificăm, pierzând uneori esențialul sau aflând prea târziu soluția. Actualele unelte de prelucrare automată a informației nu ne permit încă să tragem, în toate situațiile, o concluzie logică, rece, bazată pe puterea întregii noastre științe.
„Al treilea val” al cercetării în domeniul inteligenței artificiale
Noul proiect al DARPA numit Enabling Confidence (Validarea Încrederii) face parte dintr-o inițiativă mai mare - Artificial Intelligence Exploration (AIE). Inițiativa se concentrează pe ceea ce DARPA definește un „al treilea val” al cercetării în domeniul inteligenței artificiale, axat pe teoria AI și cercetarea aplicativă, cu scop de a examina limitările de natură statistică (reguli și teorii de învățare statistică), care contrazic tehnologiile AI.
Cercetările AI efectuate de DARPA în „primul val” (învățarea bazată pe reguli) și în „al doilea val” (învățarea bazată pe statistică) au contribuit la dezvoltarea sistemelor expert și de căutare și mai recent, a algoritmilor și hardware-urilor de învățare automată (machine learning).
Bryan Jacobs, manager de program pentru proiectul Enabling Confidence a declarat că programul AIE se concentrează pe implementarea algoritmilor de învățare automată în lanțurile de procesare a datelor care pot calcula atât acuratețea, cât și incertitudinea rezultatelor lor.
„Problema este că algoritmii de învățare automată nu se potrivesc, în prezent, bine în paradigma modernă de procesare statistică. Producerea unui model statistic precis care descrie incertitudinea rezultatelor unui algoritm de învățare automată, de exemplu o rețea neuronală profundă, este un proces intensiv de calcul”, a spus Jacobs. „Enabling Confidence de la DARPA își propune să găsească modalități de a depăși acest obstacol, astfel încât inteligența artificială să poată fi pe deplin integrată în lanțurile de procesare statistică.”
El a adăugat că scopul Enabling Confidence este să valideze noi tehnologii care vor rafina estimările de incertitudine generate de acești algoritmi, pentru a lua decizii mai bune de luptă, cum ar fi trasarea traiectoriei pentru un avion de luptă care sosește folosind date de la mai mulți senzori sau RADAR.
„Estimarea, prezicerea și extrapolarea cu acuratețe a informațiilor de la mai mulți senzori și subsisteme combinate sunt toate esențiale pentru creșterea performanței AI – și pentru obținerea [prin prelucrarea datelor – nota autorului] și furnizarea de informații fiabile și acționabile pentru operațiile militare”, a spus Jacobs.
În prezent, trei din cele șase departamente ale Forțelor Armate ale SUA desfășoară programe de anvergură în ceea ce privește fuziunea informațiilor de la o multitudine de senzori și surse. US Army o face în cadrul proiectului Convergence, în care integrează toate progresele pe un an într-un exercițiu executat de regulă în octombrie. Proiectul similar al US Air Force se numește Advanced Battle Management System (ABMS), în timp ce al Marinei, care este înconjurat de cel mai mare secret, se numește Overmatch. Toate se încadrează în strategia JADC2 (Joint All-Domain Command and Control) a Pentagonului, anunțată în 2021.
Se pare că după seriile de exerciții desfășurate în cadrul celor trei proiecte, au apărut unele probleme privind corectitudinea informațiilor furnizate de sistemele de inteligență artificială, deși, probabil, au fost antrenate pe foarte multe seturi de date. O parte din sistemele AI ar putea produce informații/date incerte, și se încearcă corectarea acestei situații printr-o abordare statistică.
Sistemele AI au în compunere rețele neuronale care funcționează similar rețelelor neuronale biologice
Principalul lor avantaj este că după antrenare, nu mai au nevoie de date, acestea fiind stocate sub forma ponderilor din rețeaua neuronală. În acest fel, se economisește memorie fizică și se obține o viteză mare de procesare, deoarece nu mai este nevoie să se compare o mostră de informație cu întreaga bază de date, rețeaua neuronală recunoscând imediat patternurile.
Există însă și câteva dezavantaje în rețelele neuronale artificiale.
Primul constă în apariția unor informații cu totul noi, care nu au fost prezentate sub nicio formă asemănătoare în setul de date de antrenament, iar atunci rețeaua neuronală va aproxima în funcție de ce a învățat, producând probabil o eroare sau ceva incert.
Un alt dezavantaj este că o rețea neuronală artificială, care învață tot timpul, poate fi convertită încet, încet, ca și omul, în altceva diferit decât scopul ei inițial.
Un al treilea dezavantaj important ar putea pleca de la filozofia de ponderare a intrărilor de date și de la cea de activare a ieșirii rețelelei/straturilor neuronale, cumva similar cu harurile naturale ale fiecărui om către un anumit tip general de activitate (sport, știință, artă etc.). Dar, acest dezavantaj poate fi corectat destul de ușor la rețelele neuronale artificiale.
DefenseRomania App
Fii primul care află cele mai importante știri din domeniu cu aplicația DefenseRomania. Downloadează aplicația DefenseRomania de pe telefonul tău Android (Magazin Play) sau iOS (App Store) și ești la un click distanță de noi în permanență
Fiți la curent cu ultimele noutăți. Urmăriți DefenseRomania și pe Google News