Home » Articole » Articole » Calculatoare » Inteligența artificială » Modele inteligente de învățare automată în inteligența artificială

Modele inteligente de învățare automată în inteligența artificială

Învățare prin ansamblu

Este un model de învățare automată în care mașinile care învață (cursanții – modele individuale) sunt instruite pentru a rezolva o problemă comună. Spre deosebire de alte tehnici de învățare automată care învață o singură ipoteză din datele de antrenament, învățarea ansamblului încearcă să învețe prin construirea unui set de ipoteze din datele de antrenament și combinându-le pentru a face un model de predicție [15,19] pentru a reduce părtinirea (amplificare), variația (înglobare) sau îmbunătățiți predicțiile (stivuirea). Învățarea prin ansamblu poate fi împărțită în două grupuri:

  • Abordări secvenţiale de ansamblu – Acestea sunt metodele în care cursanţii de bază sunt construiţi secvenţial (AdaBoost). Această metodă exploatează dependența dintre cursanții de bază.
  • Abordări paralele de ansamblu – În acestea, cursanții de bază sunt independenți unul de celălalt, astfel încât această relație este exploatată prin construirea cursanților de bază în paralel (de exemplu, Random Forest)
    • Bagging: Reprezintă agregarea bootstrap. Implementează cursanți omogene pe populații eșantion și ia media tuturor predicțiilor [4, 15, 16]. De exemplu, M arbori diferiți pot fi antrenați pe subseturi diferite de date și pot calcula ansamblul sub formă:f(x) = 1/M · Σm=1Mfm(x)
    • Boosting: Este o tehnică iterativă care ajustează ponderea observației pe baza ultimei clasificări. Încearcă să se potrivească cu o secvență de modele slabe de învățare care au performanțe puțin mai bune decât doar predicția aleatorie, de ex. arbori mici de decizie [4,16]. AdaBoost reprezintă stimularea adaptivă și este cel mai utilizat algoritm de stimulare.

Rețele neuronale artificiale

Rețelele neuronale artificiale (Artificial neural networks, ANN) sunt similare cu rețeaua neuronală biologică. O rețea neuronală este o interconexiune de celule neuronale care ajută impulsurile electrice să se propage prin creier. Unitatea de bază de învățare într-o rețea neuronală este un neuron, care este o celulă nervoasă. Un neuron este format din patru părți, și anume dendrite (receptor), soma (procesor de semnal electric), nucleu (nucleul neuronului) și axon (capătul transmisor al neuronului). Analogic unei rețele neuronale biologice, un ANN funcționează pe trei straturi: strat de intrare, strat ascuns și strat de ieșire. Acest tip de rețea are interconexiuni ponderate și învață prin ajustarea ponderilor interconexiunilor pentru a efectua procesări distribuite în paralel. Algoritmul de învățare Perceptron, algoritmul de back-propagation, Hopfield Networks, Radial Basis Function Network (RBFN) sunt câțiva algoritmi populari.

Pe baza comportamentului de învățare, ANN poate fi clasificat în continuare ca:

  • Rețea neuronală supravegheată – Intrările și ieșirile sunt prezentate rețelei ca date de antrenament. Rețeaua este antrenată cu aceste date prin ajustarea greutăților pentru a obține rezultate precise. Când este antrenată complet, i se prezintă date nevăzute pentru a prezice rezultatul.
  • Rețea neuronală nesupravegheată – În rețeaua neuronală nesupravegheată, rețeaua nu este prevăzută cu nicio ieșire. Încearcă să găsească o structură sau o corelație între datele de intrare și să grupeze acele date într-un grup sau clasă. Când îi sunt prezentate date noi ca intrare, îi identifică caracteristicile și le clasifică într-unul dintre grupuri pe baza asemănărilor.
  • Rețeaua neuronală de întărire – Pe măsură ce oamenii interacționează cu mediul lor și învață din greșeli, o rețea neuronală de întărire învață și din deciziile sale anterioare prin sancțiuni pentru decizii greșite și recompense pentru deciziile bune. Greutățile conexiunii care produc o ieșire corectă sunt întărite, în timp ce cele care produc răspunsuri incorecte sunt slăbite.

Învățare bazată pe instanțe

Spre deosebire de alte metode de învățare automată în care se oferă o definiție clară a funcției țintă din datele de antrenament, această metodă de învățare nu descrie nicio funcție țintă la început. Mai degrabă, stochează pur și simplu instanța de antrenament și generalizarea este amânată până când o nouă instanță este clasificată. Prin urmare, este cunoscută și sub denumirea de elev leneș. Astfel de metode alcătuiesc o bază de date de instanțe de antrenament și, ori de câte ori sunt prezentate date noi ca intrare, ea compară datele respective cu alte instanțe din baza de date folosind o măsură de similaritate pentru a găsi cea mai apropiată potrivire și pentru a face predicția [4]. Cel care învață mai lent estimează funcția țintă în mod diferit și local pentru fiecare instanță nouă care urmează să fie clasificată, în loc să o estimeze global pentru întreg spațiul instanței, prin urmare, este mai rapid de antrenat, dar necesită timp pentru a face predicții [16]. K-Means, k-medians, clustering ierarhic și maximizarea așteptărilor sunt câțiva algoritmi populari bazați pe instanțe.

Algoritmi de reducere a dimensionalității

În ultimele decenii, modelele inteligente de învățare automată au fost adoptate în numeroase aplicații complexe și intensive de date, cum ar fi climatologie, biologie, astronomie, medical, economie și finanțe. Cu toate acestea, sistemele existente bazate pe învățarea automată nu sunt suficient de eficiente și suficient de extensibile pentru a se ocupa de date masive și voluminoase. Dimensiunea mare a datelor s-a dovedit a fi un blestem pentru procesarea date. O altă provocare este raritatea datelor. Optimul global este costisitor de găsit pentru astfel de date. Un algoritm de reducere a dimensionalității ajută la reducerea costului de calcul prin reducerea numărului de dimensiuni ale datelor. Face acest lucru prin reducerea datelor redundante și irelevante și curățarea datelor pentru a îmbunătăți acuratețea rezultatelor. Reducerea dimensionalității funcționează într-o manieră nesupravegheată pentru căutarea și exploatarea structurii implicite în date [4, 5]. Există mulți algoritmi pentru reducerea dimensionalității care pot fi adaptați cu algoritmi de clasificare și regresie, cum ar fi scalarea multidimensională (MDS), analiza componentelor principale (PCA), analiza discriminantă liniară (LDA), regresia componentei principale (PCR) și analiza discriminantă liniară (LDA). ).

Învățare hibridă

Deși învățarea prin ansamblu a apărut ca o ușurare pentru cercetătorii care se confruntă cu problemele comune ale complexității computaționale, supraajustarea și respectarea minimelor locale în algoritmii de clasificare, cercetătorii au găsit probleme cu învățarea prin ansamblu. Ansamblul complicat de clasificatoare multiple face dificilă implementarea și analizarea rezultatelor. În loc să îmbunătățească acuratețea modelului, ansamblurile pot avea tendința de a crește eroarea la nivelul elevului de bază individual. Ansamblurile pot avea ca rezultat o precizie slabă ca urmare a selecției combinate de clasificatoare slabe. Abordarea recentă pentru astfel de probleme este hibridizarea, respectiv crearea unui ansamblu de modele eterogene. În aceasta, sunt combinate mai mult de o metodă, de exemplu, combinarea ansamblului și a arborelui de decizie sau a minării în cluster și asociere etc.

Dintre toate paradigmele de învățare menționate mai sus, învățarea supravegheată este de departe cea mai populară printre cercetători și practicieni.

Referințe

  • [4] Sandhya N. dhage, Charanjeet Kaur Raina, “A review on Machine Learning Techniques”, March 16 Volume 4 Issue 3 , International Journal on Recent and Innovation Trends in Computing and Communication (IJRITCC), ISSN: 2321-8169, PP: 395 – 399
  • [5] AyonDey , “Machine Learning Algorithms: A Review”, (IJCSIT) International Journal of Computer Science
  • [15] Zhou ZH. (2009) Ensemble Learning. In: Li S.Z., Jain A. (eds) Encyclopedia of Biometrics. Springer, Boston, MA
  • [16] Tom M. Mitchell , “Machine Learning “, WCB McGraw-Hill, 2013, ISBN-13:978-1-25-9096952, ISBN-10: 1-25-909695-5. I OP Conf. Series: Journal of Physics: Conf. Series 1142 (2018) 012012 doi:10.1088/1742-6596/1142/1/012012
  • [19] Witten IH, Frank E, Hall MA, Pal CJ. Data Mining: Practical machine learning tools and techniques. Morgan Kaufmann; 2016 Oct 1.

Sursa: Jafar Alzubi et al 2018 J. Phys.: Conf. Ser. 1142 012012, licența CC BY 3.0. Traducere: Nicolae Sfetcu

Big Data: Modele de afaceri - Securitatea megadatelor
Big Data: Modele de afaceri – Securitatea megadatelor

Nu rata oportunitatea de a rămâne competitiv într-o lume bazată pe date!

Nu a fost votat 19.26 lei28.91 lei Selectează opțiunile Acest produs are mai multe variații. Opțiunile pot fi alese în pagina produsului.
Căutarea, extragerea, organizarea și evaluarea informațiilor
Căutarea, extragerea, organizarea și evaluarea informațiilor

Transformă informația în putere cu ajutorul acestei cărți indispensabile!

Nu a fost votat 19.26 lei46.39 lei Selectează opțiunile Acest produs are mai multe variații. Opțiunile pot fi alese în pagina produsului.
Inteligența competitivă - Concept - Studii
Inteligența competitivă – Concept – Studii

Inteligența competitivă: instrumentul esențial pentru succesul în afaceri

Nu a fost votat 9.61 lei15.20 lei Selectează opțiunile Acest produs are mai multe variații. Opțiunile pot fi alese în pagina produsului.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *