Această pagină conține 3015 cuvinte, respectiv 20551 caractere și durează 10 minute pentru a fi citită.

Introducere

Spre infinit, un curent ce presupune o propagare nelimitată, este o idee care ne împinge spre limită capacitatea de percepție și înțelegere a evenimentelor trecute, actuale și care vor urma. Se spune că pentru a întrezării rezultatul acțiunilor din prezent trebuie să cunoaștem foarte bine istoria ce stă la baza deciziilor actuale, dar de cele mai multe ori nu este și îndeajuns.

O pseudo-abordare matematică pentru analiza existenței unei funcții de predicție, din domeniul de inteligență artificială, ar puncta că necesitatea este susținută cunoașterea evolutivă a suportului tehnologic, a soluțiilor de implementare teoretică și aplicativă, dar pentru satisfacerea condiției de suficiență, toți pașii evolutivi trebuie ancorați în factorii care i-au declanșat și de asemenea legătura dintre factorii trebuie fundamentată într-un mod similar.

Elementele funcționale ale rețelei artificiale inteligente astfel conturate vor permite crearea unui mediu de construire a posibilelor tendințe și evoluții spre nemărginire în domeniile de învățare avansată bazată pe suporturi de implementare artificiale. Pasul logic următor în analiza ipotezelor formulate, pentru crearea de posibile direcții de dezvoltare, este analiza interacțiunii cu celelalte medii de evoluție tehnologice și culturale. Rezultatul obținut este o soluție rafinată ce are o strânsă legătură cu impactul posibil în mediul de propagare.

Prin urmare în acest capitol vom parcurge diversele variante de dezvoltare ale inteligenței artificiale și aplicații ale lor în lumea reală, iar prin urmărirea modului de propagare de la origine până în prezent se vor identifica posibilele evoluții spre infinit ale tehnologiei de învățare algoritmică stocastică și deterministă bazate pe un mediu de existență artificial.

Atingerea nivelului de apogeu al Inteligenței Artificiale este definită prin formarea unei singularități sau obținerea unei inteligențe de sine stătătoare cu toate implicațiile aferente față de natura umană, astfel că vor fi investigate posibilele interacțiuni în urma unui astfel de eveniment.

Dezvoltarea emergentă a inteligenței artificiale

Inteligența artificială a fost dezvoltată pornind de la înțelegerea modelelor de învățare umană și căutarea de structuri matematice care să poată formula aceste abilități naturale. Pornind de la această idee au rezultat într-o primă fază modele neurale care aproximau modelul neuronului biologic, primul model fiind McCuloch-Pitts în 1943[1], iar următorul Rosenblatt în 1958[2].

Forma aceasta a neuronului se definește printr-un sumator de impulsuri ponderate sau de semnale adaptate care se propagă mai departe prin intermediul unui prag declanșator, introdus de o funcție de o anumită activare, spre răspunsul neuronului. Funcția de activare reprezintă un element important în procesul de învățare a unui neuron, iar capacitatea de a se adapta la informațiile folosite în procesul de antrenare depinde de funcția matematică folosită[4]. Denumirea acestei funcții este folosită pentru crearea unei tipologii a neuronilor dar, la rândul ei, este cea care ne arată legătura unei „pietre fundamentale” de la temelia inteligenței artificiale cu răspunsul spre infinit. Astfel că un element important regăsit în multe modele neurale poate să propage la infinit o informație și să ofere un răspuns finit. Reprezintă o formă matematică de atingere a nemărginirii care se concretizează într-un anumit răspuns.

Direcțiile de punere eficientă în aplicare a acestor modele au întârziat să apară datorită mediilor de implementare inexistente inițial și neadecvate ceva mai târziu. În 1950 Alan Turing a publicat „Computing Machinery and Intelligence”, introducând conceptul de test Turing [3]. Acest test este dezvoltat pentru măsurarea capacității unei mașini de manifestare a inteligenței asemănătoare cu cea umane și reprezintă o metodă de referință pentru analiza și cercetarea inteligenței artificiale. Impactul soluțiilor de inteligență artificiale la momentul apariției nu a percutat în mediul tehnologic fiind afectată de lipsa suportului matematic pentru prelucrarea bazelor informaționale necesare învățării și pentru crearea de ponderi rezultate în urma învățării. De abia peste mai bine de 40 de ani de la prima formă matematică a neuronului a fost fundamentată o bază solidă matematică de învățare avansată și de atribuire de ponderi neuronilor artificiali [5].

Factorii importanți în analiza acestei dezvoltări emergente a inteligenței artificiale sunt reprezentați în principiu de cunoașterea a trei aspecte semnificative: algoritmii matematici folosiți pentru învățare și capacitatea de modelare, de puterea de procesare și suportul informatic aferent și de existența sau inexistența nișelor de propagare științifice și/sau artistice prin modele matematice sau informații corespunzătoare.

Algoritmii matematici folosiți la învățare și capacitatea de modelare

Termenul de învățare este folosit pentru modelele de inteligență artificială deși nu este specific, deoarece un model neural artificial nu învață precum oamenii, în baza unor experimentări personale, ci integrează corelări intrare-ieșire, prin relații matematice, și anume prin alocarea de ponderi intrărilor neuronului sau neuronilor din rețea. Această procedură de alocare a ponderilor în rețeaua de inteligență artificială, în baza unui proces de minimizare a erorii răspunsului oferit, prin activitatea de inferență, față de cel așteptat. și de modelare a răspunsului pentru a fi conform cu ceea ce am dorit, se numește algoritm de antrenare. Performanțele de învățare sunt afectate de algoritmii utilizați și de capacitatea de a modela răspunsul prin tipul de funcții de activare utilizate, modul de procesare a intrării și modul de interconectare a unităților neurale în rețea. Deși există studii comparative și meta-analize privind performanțele algoritmilor, care sunt în principiu modalități eficiente de evaluare a meritelor tehnicilor concurente, până în prezent acestea nu au fost capabile să ofere răspunsuri definitive. Unul dintre motive poate fi faptul că astfel de studii sunt ele însele adesea supuse criticilor și acuzațiilor de părtinire: Pentru orice comparație empirică concretă, susținătorii unei anumite tehnici pot găsi întotdeauna erori în ceea ce privește detaliile configurației. Standardizarea lor funcție de modul cum sunt utilizate și destinația lor unde poate fi o soluție dar încă multitudinea variantelor existente reprezintă o provocare[6].

Modul de alocare a ponderilor poate fi mai mult sau mai puțin legat de o dependență directă între intrare și ieșire, astfel identificăm două abordări utilizate în practică și anume cea deterministă și cea stocastică[8]. Ajustarea ponderilor se realizează prin monitorizarea și corectarea abaterilor în structura internă a rețelei artificiale astfel ca răspunsul general să corespundă cu cel impus. Datele folosite ca referință pentru învățarea rețelei nu au o reprezentare clară în structura internă a unei rețele de inteligență artificială stocastice. Abordările actuale presupun cunoașterea și existența a cel puțin trei elemente esențiale: o rețea neuronală adecvată, un algoritm de învățare adecvat și artificii de formatare adecvată a informațiilor utilizate [7].

O provocare semnificativă indicată în literatura de specialitate este dată de limitarea capacității de învățare prin pierderea controlului asupra abaterii fața de modelul real și este prezentă în rețelele foarte mari. Această limitare propagată către limita ei sau spre nemărginire arată că în structura existentă a învățării artificiale există un pas limitator care corelează nivelul de cunoștințe și tehnologic actual cu cel al performaței inteligenței artificiale.

Puterea de procesare și suportul informatic

Inteligența artificială a apărut și există în forma actuală datorită dezvoltării explozive a suportului informatic electronic și stabilește o relație foarte strânsă între capacitatea de procesare hardware și performațele obținute. Evoluția puterii de procesare a contribuit substanțial la punerea în aplicare a algoritmilor și modelelor de inteligență artificială. Primele modele de inteligența artificială erau integrate direct la nivel hardware cu electronică analogică și digitală, limitate la configurația obținură și predispuse la multe erori de funcționare [9]. Pași tehnologici ulteriori pentru modele de inteligența artificială au fost utilizarea calculatoarelor bazate pe tuburi ionice, apoi a generațiilor de calculatoare bazate pe 8, 16, 32 și respectiv 64 de biți. Saltul semnificativ evolutiv a fost produs de utilizarea arhitecturilor de procesare grafică numite pe scurt GPU. Prin utilizarea procesoarelor grafice pentru antrenarea modelelor de inteligență artificială capacitatea de prelucrare a bazelor de date informaționale a crescut exponențial obținându-se astfel primele modele avansate cu învățare profundă din domeniul inteligenței artificiale.

Direcţiile de propagare ale Inteligenţei Artificiale(IA)

Direcțiile actuale de propagare acoperă o mare parte din preocupările umane, cautându-se deopotrivă nișe de dezvoltare științifice dar și artistice.

Modele deterministe ale IA se bazează pe ideea că comportamentul unui sistem poate fi prezis cu certitudine, date fiind condițiile inițiale și regulile care guvernează sistemul. Această abordare se bazează pe algoritmi bine definiți și pe raționamentul logic pentru a lua decizii și a rezolva probleme. Unele exemple de modele deterministe de IA includ sistemele bazate pe reguli, sistemele expert și algoritmii clasici de planificare. Ca rezultat implementările deterministe se vor baza pe: transparență și interpretabilitate (procesul decizional poate fi urmărit până la reguli și algoritmi), fiabilitate și repetabilitate (produc întotdeauna același rezultat în cazul acelorași date de intrare) și eficiență computațională și energetică (nu necesită procesarea și instruirea extinse cerute de unele modele stochastice). Ca propagare spre limită pot să inducă și riscuri în utilizarea lor și anume: Lipsa de flexibilitate (prezintă rigiditate în adaptarea la medii complexe, dinamice sau incerte, deoarece sunt limitate de regulile și algoritmii predefiniți), Fragilitate (sunt vulnerabile la intrări neașteptate sau cazuri limită, deoarece este posibil să nu aibă capacitatea de a generaliza sau de a gestiona situații care nu au fost programate explicit) și capacitate redusă de modelare a fenomenelor complexe (în lumea reală procesarea limbajului natural sau recunoașterea imaginilor prezintă o complexitate ridicați pentru a fi modelate cu exactitate doar prin abordări deterministe [10].

Modelarea stocastică în IA se bucură de cea mai mare atenție acordată în prezent și se concentrează pe utilizarea modelelor probabilistice și a metodelor statistice pentru a gestiona incertitudinea și complexitatea. Această abordare implică adesea tehnici de învățare automată, cum ar fi rețelele neuronale, arborii decizionali și rețelele bayesiene, care pot învăța din date și pot lua decizii pe baza probabilităților. Ca rezultat modelele stocastice pot oferi: adaptabilitate și flexibilitate(se pot adapta la medii complexe, dinamice și incerte prin învățarea din date și actualizarea corespunzătoare a reprezentărilor lor interne), capacitate de generalizare (pot generaliza adesea dincolo de datele de formare, permițându-le să gestioneze o gamă mai largă de intrări și situații) și capacitate modelare de fenomene complexe (prelucrarea cu succes a limbajului natural, modele generative audio, recunoașterea şi generare imaginilor și luarea deciziilor în condiții de incertitudine) [10].

Implementările modelărilor deterministe dar și stocastice pot aduce în lumea reală multe provocări, de multe ori soluțiile folosite sunt obținute dintr-o combinație a celor două tipuri, încercându-se a se obține astfel performanțe mai bune. Posibilele direcții emergente sunt:

1. Vehicule autonome: Mașinile care se conduc singure și alte vehicule autonome alimentate cu inteligență artificială pot deveni mai răspândite, îmbunătățind eficiența transportului, reducând accidentele și diminuând impactul asupra mediului.

2. Medicina personalizată: Aplicațiile medicale bazate pe IA pot deveni mai avansate, permițând planuri de tratament personalizate pe baza profilului genetic și a istoricului medical al unei persoane.

3. Asistenți inteligenți: Asistenții virtuali alimentați cu inteligență artificială pot deveni mai sofisticați, oferind o gamă mai largă de servicii și capacități, de la programarea și gestionarea sarcinilor la sprijin emoțional și recomandări privind stilul de viață.

4. Calculatorul cuantic: Integrarea inteligenței artificiale și a calculului cuantic poate să conducă la descoperiri în domenii precum criptografia, știința materialelor și descoperirea de medicamente.

5. Energia durabilă: Inteligența artificială va putea juca un rol crucial în dezvoltarea unor sisteme energetice mai eficiente și durabile, cum ar fi rețelele inteligente și gestionarea energiei regenerabile.

Robotul sau Frankenstein în Lumea viitorului

Atingerea infinitului sau Singularitatea finită

Întrebată o entitate artificială dacă poate atinge acuratețe de 100% în lumea reală (capacitatea de a gestiona orice eveniment) ea a generat, în baza setului de informații pe care le are, următorul răspuns:

Obținerea unei precizii de 100% în inteligența artificială (AI) pentru aplicațiile din lumea reală este foarte puțin probabilă, și există mai multe motive pentru aceasta:

– Complexitatea datelor din lumea reală: Datele din lumea reală sunt adesea dezordonate, incomplete și zgomotoase. Factori precum formate diferite, valori lipsă și valori aberante fac dificilă obținerea unei precizii perfecte de către sistemele AI. De exemplu, în sarcinile de recunoaștere a imaginilor, variațiile de iluminare, unghiuri și ocluzii pot duce la clasificări greșite.

– Mediile dinamice: Multe aplicații din lumea reală funcționează în medii dinamice în care condițiile se schimbă în timp. De exemplu, în conducerea autonomă, condițiile rutiere, vremea și tiparele de trafic pot varia semnificativ. O inteligență artificială antrenată pe baza datelor istorice poate avea dificultăți în a se adapta la noile scenarii, ceea ce duce la potențiale inexactități.

– Erori și prejudecăți umane: sistemele AI învață din date generate de oameni, care pot conține prejudecăți și erori. Dacă datele de instruire reflectă aceste prejudecăți, AI le poate perpetua, rezultând în predicții distorsionate sau inexacte. Acest lucru este deosebit de problematic în domenii sensibile precum angajarea, justiția penală și asistența medicală.

– Ambiguitate și subiectivitate: Multe sarcini din lumea reală implică ambiguitate și interpretare subiectivă. De exemplu, analiza sentimentelor în procesarea limbajului natural poate fi o provocare deoarece sensul cuvintelor se poate schimba în funcție de context, ton și nuanțe culturale. Obținerea unui consens cu privire la ceea ce constituie „corect” în astfel de cazuri este dificilă.

– Limitări ale algoritmilor: Algoritmii AI actuali au limitări inerente. Algoritmi diferiți excelează în domenii diferite și nicio metodă unică nu poate modela perfect fiecare aspect al unei probleme complexe. În plus, chiar și cele mai avansate modele se pot supraadapta datelor de antrenament, având rezultate slabe în cazul datelor nevăzute.

– Constrângeri etice și practice: În unele aplicații, obținerea unei precizii de 100% ar putea să nu fie etică sau fezabilă. De exemplu, în diagnosticele medicale, un model perfect ar putea conduce la o încredere excesivă în inteligența artificială, ceea ce ar putea pune în umbră judecata umană și gândirea critică.

– Costuri și resurse: Căutarea unei precizii de 100% poate duce la scăderea randamentului în termeni de timp, resurse de calcul și costuri financiare. În multe cazuri, atingerea unui nivel ridicat de precizie care să îndeplinească cerințele practice este mai benefică decât căutarea perfecțiunii.

După cum am observat abilitățile de emulare ale Inteligenței artificiale se extind pe măsură ce tehnologia avansează iar formele sun din ce în mai variate. Atingerea singularității poate comporta două aspecte principale: pe de o parte utilizarea preponderentă a modelelor deterministe poate conduce la formarea unor entități versatile dar limitative în capacitatea de expresivitate(singularitatea finită) precum androizii din filmele de ficțiune (exemplu: Data din filmul Star Trek), pe de altă parte utilizarea modelelor stocastice introduce o variabilă puternic imprevizibilă chiar potențial periculoasă și poate conduce la formarea de entități Cyborg (exemplu: Borgii din același film Star Trek)

Lumea reală, lumea virtuală sau „lumea inversată”

Lumea generată de entități care folosesc inteligența artificială la momentul actual impactează puternic lumea virtuală și deocamdată încă nu deosebit de puternic lumea reală, impactul puternic fiind doar prin mediul electronic. După modul de dezvoltare al acestor entități capacitatea lor de autodefinire se limitează la setul de informații folosit pentru învățare. Astfel că entitatea artificială se formează din seturile (frâturile) de informații produse de experiența umană și translatează această antrenare spre o formă de manifestare. Ființa umană prin formele de manifestare capătă experiență și creează astfel informații. Altfel spus o inteligență artificială este o formă de manifestare inversă a naturii umane. Prin propagarea spre infinit a acestei entități se poate crea astfel o „lume inversată” care reprezintă un subiect foarte complex numai prin sursa sa de formare fără a se ține cont de interacțiunea cu lumea naturală.

Bibliografie

[1] Mcculloch W., Pitts W., A Logical Calculus of the Ideas Immanent In Nervous Activity, Bulletin of Mathematical Biology, Vol. 52, No. l/2. pp. 99-115, 1990

[2] Rosenblatt, F., “The Perceptron: A probabilistic model for information storage and organization in the brain,” Psychological Review, vol. 65, pp. 386–408, 1958

[3] Turing, A. M., Computing Machinery and Intelligence. Mind 49: 433-460, 1950

[4] Lederer J., Activation Functions in Artificial Neural Networks:A Systematic Overview, Arxiv Online Library, arXiv:2101.09957, 2021

[5] Winter R., Widrow B., MADALINE RULE II: Training Algorithm for Neural Networks, IEEE 1988 International Conference on Neural Networks, 1988

[6] Dahl G., Schneider F., Nado Z., Agarwal N., ş.a., Benchmarking Neural Network Training Algorithms, Arxiv Online Library, arXiv:2306.07179v1, 2023

[7] Ruoyu S., Optimization for deep learning: theory and algorithms, Arxiv Online Library, arXiv:1912.08957v1, 2019

[8] Sands T., Ed., Deterministic Artificial Intelligence, IntechOpen, doi: 10.5772/intechopen.81309, 2020

[9] Carver M., Mohammed I., Analog VLSI Implementation of Neural Systems, The Kluwer International Series in Engineering and Computer Science, Vol. 80., 1989

[10] Taye M.M., Understanding of Machine Learning with Deep Learning: Architectures, Workflow, Applications and Future Directions, Computers, 2023

[11] Alexeev Y., Farag M., Patti T, Wolf M., ş.a., Artificial Intelligence for Quantum Computing,  Arxiv Online Library, arXiv:2411.09131v1, 2024

[12] Sudabathula B., The convergence of quantum computing and artificial intelligence: Reshaping the Future of Machine Learning, International Journal of Information Technology & Management Information System, Volume 16, Issue 1, 2025

Autor

  • Autorul este specialist în domeniul Ingineriei Aerospațiale. A absolvit ca șef de promoție la specializarea de Echipamente și Instalații de Bord, având studiile de licență la Facultatea de Inginerie Aerospațială din cadrul Universității „Politehnica” București, în 2002, obținând ulterior titlurile pentru studii aprofundate cu specializarea de Echipamente și Instalații de Bord și de master, în 2004, în Industria Transportului Aerian la aceeași universitate. În 2002, s-a alăturat Departamentului de Inginerie Aerospațială „Elie Carafoli” și apoi a devenit profesor asistent la Departamentul de Inginerie a Sistemelor Aeronautice și Management Aeronautic „Nicolae Tipei”, Facultatea de Inginerie Aerospațială, în prezent deținând funcția de lector în cadrul facultății.
    A continuat studiile de specialitate la un curs de control avansat din cadrul Institutului European de Control Integrat (EECI-European Embedded Control Institute, Supelec, Paris) în 2011 și a obținut titlul de doctor în domeniul Ingineriei Aerospațiale de la Universitatea „Politehnica” din București în 2015. Ulterior, în 2021, a absolvit cu succes studiile post-doctorale, cu o tematică de cercetare privind implementarea tehnologiei deep learning în aplicații de Supraveghere a Spațiului și Suportul de Navigație.
    Membru al Centrului pentru Științe, Prospectivă, Creativitate și Ficțiune (Centrul STRING), a participat ca membru junior la fondarea Asociației Aeronautica și Astronautica din România (AAAR), a colaborat ca redactor al revistei Airborne de Inginerie Aerospațială din România, fiind o persoană activă în industria aerospațială. De-a lungul timpului, a fost implicat în activitatea de îndrumare a studenților de la Facultatea de Inginerie Aerospațială și are expertiză bogată în domenii precum electronică, microprocesoare, microcontrolere și prelucrarea digitală a semnalelor. De asemenea, în cadrul activității de cercetare, a condus pachete de lucru și a dezvoltat tehnologii de Inteligență Artificială pentru Navigație Vizuală în cadrul unui grant al Agenției Spațiale Europene.

    View all posts