Rețelele neuronale artificiale (Artificial neural network, ANN) au început ca o încercare de a exploata arhitectura creierului uman pentru a îndeplini sarcini cu care algoritmii convenționali au avut puțin succes. Curând s-au reorientat spre îmbunătățirea rezultatelor empirice, renunțând în mare parte la încercările de a rămâne fideli precursorilor lor biologici. Neuronii sunt conectați unul la altul în diferite modele, pentru a permite ieșirii unor neuroni să devină intrarea altora. Rețeaua formează un grafic direcționat, ponderat.
O rețea neuronală artificială constă dintr-o colecție de neuroni simulați. Fiecare neuron este un nod care este conectat la alte noduri prin legături care corespund conexiunilor biologice axon-sinapsă-dendrită. Fiecare legătură are o greutate, care determină puterea influenței unui nod asupra altuia.

(Neuron și axon mielinizat, cu flux de semnal de la intrările de la dendrite la ieșirile la terminalele axonilor)
Neuroni artificiali
Rețelele neuronale artificiale (ANN) sunt compuse din neuroni artificiali care sunt derivați conceptual din neuroni biologici. Fiecare neuron artificial are intrări și produce o singură ieșire care poate fi trimisă la mai mulți alți neuroni. Intrările pot fi valorile caracteristice ale unui eșantion de date externe, cum ar fi imagini sau documente, sau pot fi ieșirile altor neuroni. Ieșirile neuronilor de ieșire finali ai rețelei neuronale îndeplinesc sarcini, cum ar fi recunoașterea unui obiect dintr-o imagine.
Pentru a găsi ieșirea neuronului luăm suma ponderată a tuturor intrărilor, ponderată cu greutățile conexiunilor de la intrările la neuron. Adăugăm un termen de părtinire acestei sume. Această sumă ponderată este uneori numită activare. Această sumă ponderată este apoi trecută printr-o funcție de activare (de obicei neliniară) pentru a produce rezultatul. Intrările inițiale sunt date externe, cum ar fi imagini și documente. Rezultatele finale realizează sarcina, cum ar fi recunoașterea unui obiect dintr-o imagine.
Organizare
Neuronii sunt de obicei organizați în mai multe straturi, în special în deep learning. Neuronii unui strat se conectează numai la neuronii straturilor imediat precedente și imediat următoare. Stratul care primește date externe este stratul de intrare. Stratul care produce rezultatul final este stratul de ieșire. Între ele se află zero sau mai multe straturi ascunse. De asemenea, sunt utilizate rețele cu un singur strat și fără straturi. Între două straturi, sunt posibile mai multe modele de conexiune. Ele pot fi „complet conectate”, fiecare neuron dintr-un strat conectându-se la fiecare neuron din stratul următor. Se pot pune în comun, în cazul în care un grup de neuroni dintr-un strat se conectează la un singur neuron din stratul următor, reducând astfel numărul de neuroni din acel strat. Neuronii cu numai astfel de conexiuni formează un graf aciclic direcționat și sunt cunoscuți ca rețele feedforward. Alternativ, rețelele care permit conexiuni între neuroni din același strat sau din straturile anterioare sunt cunoscute ca rețele recurente.
Hiperparametri
Un hiperparametru este un parametru constant a cărui valoare este setată înainte de începerea procesului de învățare. Valorile parametrilor sunt derivate prin învățare. Exemple de hiperparametri includ rata de învățare, numărul de straturi ascunse și dimensiunea lotului. Valorile unor hiperparametri pot fi dependente de cele ale altor hiperparametri. De exemplu, dimensiunea unor straturi poate depinde de numărul total de straturi.
(Include texte traduse și adaptate din Wikipedia de Nicolae Sfetcu)
Lasă un răspuns