Misterul formării de mituri și al gândirii: rețelele neuronale ale creierului. Comunicarea creierului, neuronilor și eficiența energetică Rețeaua neuronală umană

Articol pentru concurs "bio/mol/text": Procesele celulare care asigură schimbul de informații între neuroni necesită multă energie. Pe parcursul evoluției, consumul mare de energie a contribuit la selectarea celor mai eficiente mecanisme de codificare și transmitere a informațiilor. În acest articol, veți afla despre abordarea teoretică a studiului energiei creierului, despre rolul acesteia în cercetarea patologică, despre care neuroni sunt mai avansați, de ce este uneori benefic ca sinapsele să nu „declanșeze” și, de asemenea, cum selectează. doar informațiile de care are nevoie un neuron.

Sponsorul general al competiției este compania: cel mai mare furnizor de echipamente, reactivi și consumabile pentru cercetare și producție biologică.


Sponsorul Premiului Publicului și partenerul nominalizării „Biomedicine Today and Tomorrow” a fost compania „Invitro”.


Sponsor „Carte” al competiției - „Alpina non-ficțiune”

Originea abordării

De la mijlocul secolului al XX-lea, se știe că creierul consumă o parte semnificativă din resursele energetice ale întregului organism: un sfert din toată glucoza și ⅕ din tot oxigenul în cazul unei primate superioare. Acest lucru i-a inspirat pe William Levy și Robert Baxter de la Institutul de Tehnologie din Massachusetts (SUA) să efectueze o analiză teoretică a eficienței energetice a codificării informațiilor în rețelele neuronale biologice (Fig. 1) . Studiul se bazează pe următoarea ipoteză. Deoarece consumul de energie al creierului este mare, este benefic pentru acesta să aibă astfel de neuroni care funcționează cel mai eficient - transmit doar informații utile și cheltuiesc cea mai mică cantitate de energie.

Această ipoteză s-a dovedit a fi corectă: pe un model simplu de rețea neuronală, autorii au reprodus valorile măsurate experimental ale unor parametri. În special, frecvența optimă de generare a impulsurilor calculată de aceștia variază de la 6 la 43 de impulsuri/s - aproape la fel ca în neuronii bazei hipocampului. Ele pot fi împărțite în două grupe în funcție de frecvența pulsului: lent (~10 impulsuri/s) și rapid (~40 impulsuri/s). În același timp, primul grup îl depășește semnificativ pe al doilea. O imagine similară se observă și în cortexul cerebral: există de câteva ori mai mulți neuroni piramidali lenți (~4-9 impulsuri/s) decât interneuronii inhibitori rapidi (>100 impulsuri/s), . Deci, aparent, creierul „preferă” să folosească mai puțini neuroni rapizi și consumatorii de energie, astfel încât să nu consume toate resursele.

Figura 1. Sunt prezentați doi neuroni.Într-una dintre ele Violet se colorează proteina presinaptică sinaptofizina. Un alt neuron este complet colorat proteină verde fluorescentă. Puncte mici de lumină- contacte sinaptice între neuroni. În inserție, un „pec” este prezentat mai aproape.
Se numesc grupuri de neuroni legați între ele prin sinapse rețele neuronale, . De exemplu, în cortexul cerebral, neuronii piramidali și interneuronii formează rețele extinse. Munca de „concert” bine coordonată a acestor celule determină abilitățile noastre cognitive superioare și alte abilități. Rețele similare, doar de la alte tipuri de neuroni, sunt distribuite în tot creierul, sunt interconectate într-un anumit fel și organizează munca întregului organ.

Ce sunt interneuronii?

Neuronii sistemului nervos central sunt împărțiți în activând (forma activatoare a sinapselor) și inhibitor (formează sinapse inhibitorii). Acestea din urmă sunt în mare măsură reprezentate interneuroni , sau neuroni intermediari. În cortexul cerebral și hipocampus, aceștia sunt responsabili pentru formarea ritmurilor gamma cerebrale, care asigură munca coordonată, sincronă, a altor neuroni. Acest lucru este extrem de important pentru funcțiile motorii, percepția informațiilor senzoriale, formarea memoriei,.

Găsirea optimului

De fapt, vorbim despre o problemă de optimizare: găsirea maximului unei funcții și determinarea parametrilor sub care se realizează aceasta. În cazul nostru, funcția este raportul dintre cantitatea de informații utile și costurile de energie. Cantitatea de informații utile poate fi calculată aproximativ folosind formula lui Shannon, utilizată pe scară largă în teoria informației, . Există două metode de calculare a costurilor energetice și ambele dau rezultate plauzibile, . Una dintre ele - „metoda de numărare a ionilor” - se bazează pe numărarea numărului de ioni Na + care au intrat în interiorul neuronului în timpul unui anumit eveniment semnal (PD sau PSP, vezi bara laterală " Ce este un potențial de acțiune”) urmată de conversie la numărul de molecule adenozin trifosfat (ATP), principala „monedă” energetică a celulelor. Al doilea se bazează pe descrierea curenților de ioni prin membrană în conformitate cu legile electronicii și vă permite să calculați puterea circuitului electric echivalent al neuronului, care este apoi convertit în costuri ATP.

Aceste valori „optimale” ale parametrilor trebuie apoi comparate cu cele măsurate experimental și să determine cât de mult diferă. Imaginea de ansamblu a diferențelor va indica gradul optimizare a unui neuron dat în ansamblu: cât de reale, măsurate experimental, coincid valorile parametrilor cu cele calculate. Cu cât diferențele sunt mai slabe, cu atât neuronul este mai aproape de optim și cu atât funcționează mai eficient și mai optim energetic. Pe de altă parte, o comparație a parametrilor specifici va arăta în ce capacitate specifică acest neuron este aproape de „ideal”.

Mai mult, în contextul eficienței energetice a neuronilor, sunt luate în considerare două procese pe care se bazează codificarea și transmiterea informațiilor în creier. Acesta este un impuls nervos, sau un potențial de acțiune, prin care poate fi informată trimis„destinatar” la o anumită distanță (de la micrometri la un metru și jumătate) și transmisia sinaptică care stă la baza realului transmitere semnal de la un neuron la altul.

potenţial de acţiune

potenţial de acţiune (PD) este un semnal pe care neuronii îl trimit unul altuia. PD sunt diferite: rapid și lent, mic și mare. Adesea ele sunt organizate în secvențe lungi (ca literele din cuvinte) sau în „pachete” scurte de înaltă frecvență (Fig. 2).

Figura 2. Diferite tipuri de neuroni generează semnale diferite. In centru- secțiunea longitudinală a creierului unui mamifer. Inseturile prezinta diferite tipuri de semnale inregistrate prin metode electrofiziologice , . A - Cortical ( Cortex cerebral) neuronii piramidali pot transmite ca semnale de joasă frecvență ( Tragere regulată), și semnale scurte de explozie sau de explozie ( explozie de foc). b - Pentru celulele Purkinje ale cerebelului ( Cerebel) se caracterizează doar prin activitate de explozie la o frecvență foarte mare. v - neuronii releu ai talamusului ( talamus) au două moduri de activitate: burst și tonic ( tragere tonica). G - Neuronii din mijlocul lesei ( MHb, Habenula medială) epitalamusului generează semnale tonice de joasă frecvență.

Ce este un potențial de acțiune?

  1. membrana si ionii. Membrana plasmatică a neuronului menține o distribuție neuniformă a substanțelor între celulă și mediul extracelular (Fig. 3). b). Printre aceste substanțe există și ioni mici, dintre care K + și Na + sunt importanți pentru descrierea PD.
    Există puțini ioni Na + în interiorul celulei, dar mulți în exterior. Din această cauză, ei se străduiesc constant să intre în cușcă. Dimpotrivă, în interiorul celulei sunt mulți ioni K + și se străduiesc să iasă din ea. Ionii nu pot face acest lucru singuri, deoarece membrana este impermeabilă pentru ei. Pentru trecerea ionilor prin membrană, este necesar să deschideți proteine ​​speciale - canale ionice membranelor.
  2. Figura 3. Neuron, canale ionice și potențial de acțiune. A - Reconstituirea celulei candelabrului din cortexul cerebral de șobolan. albastru dendritele și corpul neuronului sunt colorate (pată albastră în centru), roșu- axon (în multe tipuri de neuroni, axonul este mult mai ramificat decât dendritele,). Verdeaţăși săgeți purpurie indicați direcția fluxului de informații: dendritele și corpul neuronului îl primesc, axonul îl trimite altor neuroni. b - Membrana unui neuron, ca orice altă celulă, conține canale ionice. Căni verzi- ioni de Na +, albastru- Ioni K +. v - Modificări ale potențialului de membrană în timpul generării unui potențial de acțiune (AP) de către neuronul Purkinje. zonă verde: Canalele de Na sunt deschise, ionii Na + intră în neuron, are loc depolarizarea. Zona albastra: Canalele K sunt deschise, K + iese, are loc repolarizarea. Suprapunerea regiunilor verde și albastru corespunde perioadei în care Na + intră și K + iese simultan.

  3. canale ionice. Varietatea canalelor este imensă. Unele dintre ele se deschid ca răspuns la o modificare a potențialului membranei, altele - atunci când un ligand (un neurotransmițător într-o sinapsă, de exemplu) se leagă, altele - ca urmare a modificărilor mecanice ale membranei etc. Deschiderea canalului constă în schimbarea structurii acestuia, în urma căreia ionii pot trece prin el. Unele canale trec doar un anumit tip de ion, în timp ce altele sunt caracterizate prin conductivitate mixtă.
    Canalele care „simt” potențialul membranei joacă un rol cheie în generarea AP - potenţial dependent canale ionice. Ele se deschid ca răspuns la modificările potențialului membranei. Printre acestea, ne interesează canalele de sodiu dependente de tensiune (canale Na), care permit trecerea doar ionilor Na + și canalele de potasiu dependente de tensiune (canale K), care permit trecerea doar ionilor K +.
  4. PD este o modificare relativ puternică a potențialului membranei, asemănătoare unui salt de amplitudine.

  5. Curentul ionic și PD. Baza PD este curentul ionic - mișcarea ionilor prin canalele ionice ale membranei. Deoarece ionii sunt încărcați, curentul lor duce la o modificare a sarcinii totale în interiorul și în afara neuronului, ceea ce implică imediat o modificare a potențialului membranei.
    Generarea AP, de regulă, are loc în segmentul inițial al axonului - în acea parte a acestuia care este adiacentă corpului neuronului, . Există multe canale Na concentrate aici. Dacă se deschid, un curent puternic de ioni Na + se va repezi în axon și a depolarizare membrane - o scădere a potențialului membranei în valoare absolută (Fig. 3 v). Apoi, trebuie să reveniți la valoarea inițială - repolarizare. Ionii K + sunt responsabili pentru aceasta. Când canalele K se deschid (cu puțin înainte de maximul AP), ionii K+ vor începe să părăsească celula și să repolarizeze membrana.
    Depolarizarea și repolarizarea sunt cele două faze principale ale PD. Pe lângă acestea, se mai disting mai multe, care, din lipsă de necesitate, nu sunt luate în considerare aici. O descriere detaliată a generației PD poate fi găsită în,. O scurtă descriere a PD este, de asemenea, în articolele despre „Biomolecule”.
  6. Segmentul axon inițial și inițierea AP. Ce duce la deschiderea canalelor Na în segmentul inițial al axonului? Din nou, modificarea potențialului de membrană, „vinând” de-a lungul dendritelor neuronului (Fig. 3). A). Acest - potenţiale postsinaptice (PSP) care rezultă din transmiterea sinaptică. Acest proces este explicat mai detaliat în textul principal.
  7. Efectuarea PD. Canalele Na din apropiere nu vor fi indiferente față de AP în segmentul inițial al axonului. Și ei se vor deschide ca răspuns la această modificare a potențialului membranei, care va declanșa și AP. Acesta din urmă, la rândul său, va provoca o „reacție” similară în următorul segment al axonului, mai departe de corpul neuronului și așa mai departe. Așa se întâmplă dirijarea PD de-a lungul axonului, . În cele din urmă își va ajunge la terminațiile presinaptice ( săgeți purpurieîn fig. 3 A) unde poate declanșa transmiterea sinaptică.
  8. Consumul de energie pentru generarea AP este mai mic decât pentru activitatea sinapselor. Câte molecule de adenozin trifosfat (ATP), principala „monedă” energetică costă PD? Potrivit unei estimări, pentru neuronii piramidali din cortexul cerebral de șobolan, consumul de energie pentru generarea a 4 AP pe secundă este de aproximativ ⅕ din consumul total de energie al neuronului. Dacă luăm în considerare alte procese de semnalizare, în special transmisia sinaptică, proporția va fi ⅘. Pentru cortexul cerebelos, care este responsabil de funcțiile motorii, situația este similară: consumul de energie pentru generarea unui semnal de ieșire este de 15% din total și aproximativ jumătate este pentru procesarea informațiilor de intrare. Deci, PD este departe de a fi cel mai consumator de energie. Uneori este necesară mai multă energie pentru funcționarea sinapsei. Totuși, acest lucru nu înseamnă că procesul de generare a PD nu prezintă caracteristici de eficiență energetică.

O analiză a diferitelor tipuri de neuroni (Fig. 4) a arătat că neuronii de nevertebrate nu sunt foarte eficienți energetic, iar unii neuroni de vertebrate sunt aproape perfecți. Conform rezultatelor acestui studiu, interneuronii hipocampici implicați în formarea memoriei și a emoțiilor, precum și neuronii releu talamocortical, care transportă principalul flux de informații senzoriale de la talamus la cortexul cerebral, s-au dovedit a fi cei mai energici. eficient.

Figura 4. Diferiți neuroni sunt eficienți în moduri diferite. Figura prezintă o comparație a consumului de energie al diferitelor tipuri de neuroni. Consumul de energie este calculat în modele ca și cu valorile inițiale (reale) ale parametrilor ( coloane negre), și cu cele optime, în care, pe de o parte, neuronul își îndeplinește funcția atribuită, pe de altă parte, cheltuiește un minim de energie ( coloane gri). Două tipuri de neuroni vertebrați s-au dovedit a fi cei mai eficienți dintre cei prezentați: interneuronii hipocampali ( interneuron hipocampal de șobolan, RHI) și neuronii talamocorticali ( celula releu talamocorticală de șoarece, MTCR), deoarece pentru ei consumul de energie din modelul original este cel mai apropiat de consumul de energie al celui optimizat. În schimb, neuronii nevertebratelor sunt mai puțin eficienți. Legendă: SA (axon de calmar) - axon de calmar gigant; CA (axon de crab) - axon de crab; MFS (mouse-ul rapid spike interneuron cortical) - interneuron cortical rapid de șoarece; BK (corp de ciupercă de albine celulă Kenyon) este celula Kenyon în formă de ciupercă a albinei.

De ce sunt mai eficiente? Deoarece au o suprapunere mică a curenților de Na și K. În timpul generării PD, există întotdeauna o perioadă de timp în care acești curenți sunt prezenți simultan (Fig. 3 v). În acest caz, practic nu există transfer de sarcină, iar modificarea potențialului membranei este minimă. Dar, în orice caz, trebuie să „plătiți” acești curenti, în ciuda „inutilității” lor în această perioadă. Prin urmare, durata acestuia determină cât de multă resurse energetice sunt risipite. Cu cât este mai scurtă, cu atât este mai eficientă utilizarea energiei. Cu cât este mai lung, cu atât mai puțin eficient. Doar în cele două tipuri de neuroni menționate mai sus, datorită canalelor ionice rapide, această perioadă este foarte scurtă, iar PD sunt cele mai eficiente.

Apropo, interneuronii sunt mult mai activi decât majoritatea altor neuroni din creier. În același timp, sunt extrem de importante pentru activitatea coordonată, sincronă a neuronilor, cu care formează mici rețele locale. Probabil, eficiența energetică ridicată a AP interneuronilor este un fel de adaptare la activitatea și rolul lor ridicat în coordonarea activității altor neuroni.

Sinapsa

Transmiterea semnalului de la un neuron la altul are loc într-un contact special între neuroni, în sinapsa . Vom lua în considerare doar sinapsele chimice (mai sunt ceva electric), deoarece sunt foarte frecvente în sistemul nervos și sunt importante pentru reglarea metabolismului celular, livrarea de nutrienți.

La capătul presinaptic al axonului, AP provoacă eliberarea unui neurotransmițător în mediul extracelular - către neuronul receptor. Acesta din urmă așteaptă cu nerăbdare acest lucru: în membrana dendritică, receptorii - canale ionice de un anumit tip - leagă neurotransmițătorul, se deschid și permit diverșilor ioni să treacă. Acest lucru are ca rezultat generarea unui mic potenţial postsinaptic(PSP) pe membrana dendrite. Seamănă cu AP, dar este mult mai mică ca amplitudine și apare datorită deschiderii altor canale. Multe dintre aceste PSP mici, fiecare din propria sa sinapsă, „coboară” de-a lungul membranei dendritice până în corpul neuronului ( săgeți verziîn fig. 3 A) și ajung la segmentul inițial al axonului, unde provoacă deschiderea canalelor Na și îl „provocă” să genereze AP.

Astfel de sinapse sunt numite captivant : contribuie la activarea neuronului și la generarea AP. Există, de asemenea inhibitor sinapsele. Dimpotrivă, ele contribuie la inhibare și previne generarea AP. Adesea există ambele sinapse pe același neuron. O anumită relație între inhibiție și excitare este importantă pentru funcționarea normală a creierului, formarea ritmurilor cerebrale care însoțesc funcțiile cognitive superioare.

Destul de ciudat, este posibil ca eliberarea unui neurotransmițător în sinapsă să nu aibă loc deloc - acesta este un proces probabilist. Neuronii economisesc energie astfel: transmisia sinaptică determină deja aproximativ jumătate din consumul total de energie al neuronilor. Dacă sinapsele s-ar declanșa întotdeauna, toată energia ar merge pentru a le face să funcționeze și nu ar mai fi resurse pentru alte procese. Mai mult decât atât, probabilitatea scăzută (20-40%) de eliberare a neurotransmițătorilor corespunde cu cea mai mare eficiență energetică a sinapselor. Raportul dintre cantitatea de informații utile și energia cheltuită în acest caz este maxim, . Deci, se dovedește că „eșecurile” joacă un rol important în activitatea sinapselor și, în consecință, a întregului creier. Și nu trebuie să vă faceți griji cu privire la transmiterea semnalului cu sinapse uneori „nefuncționale”, deoarece există de obicei multe sinapse între neuroni și cel puțin una dintre ele va funcționa.

O altă caracteristică a transmisiei sinaptice este împărțirea fluxului de informații generale în componente separate în funcție de frecvența de modulație a semnalului de intrare (în general, frecvența AP-urilor de intrare). Acest lucru se datorează combinației diferiților receptori de pe membrana postsinaptică. Unii receptori sunt activați foarte repede: de exemplu, Receptorii AMPA (AMPA provine din α- A mino-3-hidroxi-5- m etil-4-izoxazol p ropionic A cid). Dacă doar astfel de receptori sunt prezenți pe neuronul postsinaptic, acesta poate percepe clar un semnal de înaltă frecvență (cum ar fi, de exemplu, în Fig. 2 v). Cel mai clar exemplu sunt neuronii sistemului auditiv implicați în determinarea locației sursei de sunet și recunoașterea cu acuratețe a sunetelor scurte, cum ar fi clicurile, care sunt reprezentate pe scară largă în vorbire. Receptorii NMDA (NMDA - din N -m etil- D -A spartate) sunt mai lente. Acestea permit neuronilor să selecteze semnale de frecvență mai joasă (Fig. 2 G), precum și pentru a percepe seria de înaltă frecvență a AP ca ceva unificat - așa-numita integrare a semnalelor sinaptice. Există receptori metabotropi și mai lenți, care, atunci când leagă un neurotransmițător, transmit un semnal către un lanț de „secunzi mesageri” intracelulari pentru a ajusta o mare varietate de procese celulare. De exemplu, receptorii asociați proteinei G sunt răspândiți. În funcție de tip, acestea, de exemplu, reglează numărul de canale din membrană sau le modulează direct funcționarea.

Diverse combinații de receptori AMPA rapidi, NMDA mai lenți și receptori metabotropi permit neuronilor să selecteze și să utilizeze cele mai utile informații pentru ei, ceea ce este important pentru funcționarea lor. Și informația „inutilă” este eliminată, nu este „percepută” de neuron. În acest caz, nu trebuie să cheltuiți energie pentru procesarea informațiilor inutile. Acesta este un alt aspect al optimizării transmisiei sinaptice între neuroni.

Ce altceva?

Eficiența energetică a celulelor creierului este studiată și în raport cu morfologia lor. Cercetările arată că ramificarea dendritică și axonală nu este haotică și, de asemenea, economisește energie. De exemplu, axonul se ramifică în așa fel încât lungimea totală a căii prin care trece AP este cea mai mică. În acest caz, consumul de energie pentru conducerea AP de-a lungul axonului este minim.

O scădere a consumului de energie al unui neuron este, de asemenea, realizată cu un anumit raport de sinapse inhibitorii și excitatorii. Acest lucru este direct legat, de exemplu, de ischemie(o afecțiune patologică cauzată de afectarea fluxului sanguin în vase) a creierului. În această patologie, cel mai probabil, cei mai activi neuroni metabolic sunt primii care eșuează. În cortex, ei sunt reprezentați de interneuroni inhibitori care formează sinapse inhibitorii pe mulți alți neuroni piramidali. Ca urmare a morții interneuronilor, inhibiția piramidală scade. Ca urmare, nivelul general de activitate al acestuia din urmă crește (activarea sinapselor se declanșează mai des, AP-urile sunt generate mai des). Aceasta este urmată imediat de o creștere a consumului lor de energie, care în condiții de ischemie poate duce la moartea neuronilor.

Atunci când se studiază patologiile, se acordă atenție și transmisiei sinaptice, ca proces cel mai consumator de energie. De exemplu, în bolile Parkinson, Huntington, Alzheimer, există o defecțiune sau transport la sinapsele mitocondriilor, care joacă un rol major în sinteza ATP. În cazul bolii Parkinson, acest lucru se poate datora perturbării și morții neuronilor substanței negre foarte consumatoare de energie, ceea ce este important pentru reglarea funcțiilor motorii și a tonusului muscular. În boala Huntington, proteina mutantă huntingtin perturbă mecanismele de livrare a noilor mitocondrii către sinapse, ceea ce duce la „fometarea energetică” a acestora din urmă, creșterea vulnerabilității neuronilor și activarea excesivă. Toate acestea pot cauza perturbarea în continuare a activității neuronilor, urmată de atrofia striatului și a cortexului cerebral. În boala Alzheimer, perturbarea mitocondriilor (în paralel cu scăderea numărului de sinapse) are loc din cauza depunerii plăcilor de amiloid. Acțiunea acestora din urmă asupra mitocondriilor duce la stres oxidativ, precum și la apoptoză - moartea celulară a neuronilor.

Încă o dată despre tot

La sfârșitul secolului al XX-lea a luat naștere o abordare a studiului creierului, în care sunt luate în considerare simultan două caracteristici importante: cât de mult codifică și transmite un neuron (sau rețea neuronală, sau sinapsă) informații utile și câtă energie are. cheltuie,. Raportul lor este un fel de criteriu pentru eficiența energetică a neuronilor, rețelelor neuronale și sinapselor.

Utilizarea acestui criteriu în neuroștiința computațională a dat o creștere semnificativă a cunoștințelor cu privire la rolul anumitor fenomene, procese, . În special, probabilitatea scăzută de eliberare a neurotransmițătorilor în sinapsă, un anumit echilibru între inhibarea neuronilor și excitație, eliberarea doar a unui anumit tip de informații primite datorită unei anumite combinații de receptori - toate acestea contribuie la economisirea resurselor energetice valoroase.

Mai mult decât atât, simpla determinare a consumului de energie al proceselor de semnalizare (de exemplu, generarea, conducerea AP, transmiterea sinaptică) face posibil să se afle care dintre ele va suferi în primul rând în cazul unei încălcări patologice a livrării de nutrienți, . Deoarece sinapsele necesită cea mai mare energie pentru a funcționa, ele sunt primele care eșuează în patologii precum ischemia, boala Alzheimer și boala Huntington. În mod similar, determinarea consumului de energie al diferitelor tipuri de neuroni ajută la a afla care dintre ei va muri mai devreme decât alții în cazul unei patologii. De exemplu, cu aceeași ischemie, interneuronii cortexului vor eșua în primul rând,. Acești neuroni, datorită metabolismului intensiv, sunt celulele cele mai vulnerabile în timpul îmbătrânirii, bolii Alzheimer și schizofreniei.

Mulțumiri

Sunt sincer recunoscător părinților mei Olga Natalevich și Alexander Jukov, surorilor Lyuba și Alena, supervizorului meu Alexei Brazhe și prietenilor minunați din laborator Evelina Nickelsparg și Olga Slatinskaya pentru sprijinul și inspirația lor, comentariile valoroase făcute în timpul citirii articolului. De asemenea, îi sunt foarte recunoscător Anna Petrenko, editor al articolului, și lui Anton Chugunov, redactor-șef al Biomolecule, pentru note, sugestii și comentarii.

Literatură

  1. Creier lacom;
  2. SEYMOUR S. KETY. (1957). METABOLISMUL GENERAL AL ​​CREIERULUI IN VIVO. Metabolismul sistemului nervos. 221-237;
  3. L. Sokoloff, M. Reivich, C. Kennedy, M. H. Des Rosiers, C. S. Patlak, et. al. (1977). METODA DEOXIGLUCOZEI PENTRU MĂSURAREA UTILIZĂRII LOCALE A GLUCOZEI CEREBRALE: TEORIE, PROCEDURĂ ŞI VALORI NORMALE LA ŞObolaNUL ALBINO CONŞTIENT ŞI ANESTEZIZAT . J Neurochem. 28 , 897-916;
  4. Magistretti P.J. (2008). Metabolismul energetic al creierului. În neuroștiința fundamentală // Ed de. Squire L.R., Berg D., Bloom F.E., du Lac S., Ghosh A., Spitzer N. San Diego: Academic Press, 2008. P. 271–297;
  5. Pierre J. Magistretti, Igor Allaman. (2015). O perspectivă celulară asupra metabolismului energetic al creierului și imagistică funcțională. Neuron. 86 , 883-901;
  6. William B Levy, Robert A. Baxter. (1996). Coduri neuronale eficiente energetic. Calcul neuronal. 8 , 531-543;
  7. Sharp P.E. şi Green C. (1994). Corelații spațiale ale modelelor de ardere ale celulelor individuale din subiculul șobolanului care se mișcă liber. J. Neurosci. 14 , 2339–2356;
  8. H. Hu, J. Gan, P. Jonas. (2014). Interneuroni GABAergici cu parvalbumină cu intensificare rapidă: de la designul celular la funcția de microcircuit. Ştiinţă. 345 , 1255263-1255263;
  9. Oliver Kann, Ismini E Papageorgiou, Andreas Draguhn. (2014). Interneuronii inhibitori puternic energizați sunt un element central pentru procesarea informațiilor în rețelele corticale. J-Cereb Blood Flow Metab. 34 , 1270-1282;
  10. David Attwell, Simon B. Laughlin. (2001). Un buget energetic pentru semnalizarea în materia cenușie a creierului. J-Cereb Blood Flow Metab. 21 , 1133-1145;
  11. Henry Markram, Maria Toledo-Rodriguez, Yun Wang, Anirudh Gupta, Gilad Silberberg, Caizhi Wu. (2004).

Dacă explicați „pe degete”, atunci elementele principale ale oricărei rețele neuronale sunt neuronii. Fiecare neuron primește unul sau mai multe semnale (numere) ca intrare, le procesează într-un mod complicat (sau nu) și apoi transmite rezultatul.

Neuronii sunt combinați în straturi succesive. Separat, se disting două straturi extreme - intrare și ieșire. Prin stratul de intrare, rețeaua neuronală primește informații, prin stratul de ieșire transmite rezultatul prelucrării acesteia. Toate straturile intermediare sunt numite ascunse.

Fiecare strat ascuns este conectat la două adiacente (anterior și următor) printr-un sistem complex de conexiuni (scuze pentru tautologie). În cel mai simplu caz, semnalele de la fiecare neuron al stratului anterior intră în fiecare dintre neuronii săi, sunt procesate și apoi merg de la acesta la fiecare neuron al stratului următor.

Cu toate acestea, asta nu este tot. Fiecare link are o „greutate”. Adică semnalul de la un neuron, în timp ce trece la următorul, își schimbă oarecum valoarea (valoarea acestui semnal este înmulțită cu această „greutate”).

Dacă valorile aleatorii sunt atribuite greutăților conexiunilor, atunci o astfel de rețea neuronală nu va face nimic semnificativ. Adică mai trebuie să fie alese corect cumva. Cu alte cuvinte, rețeaua neuronală trebuie antrenată.

Cum se întâmplă învățarea este mai ușor de arătat cu un exemplu. Să presupunem că antrenăm o rețea neuronală pentru a distinge imaginile cu pisici de imaginile cu câini. Apoi trimitem o imagine la stratul de intrare al rețelei neuronale, iar la ieșire rețeaua neuronală returnează o pereche de numere reale de la 0 la 1 fiecare. Primul înseamnă cât de sigur este rețeaua neuronală că este un câine, iar al doilea - că este o pisică. De ce fac acest lucru este o întrebare la care nu se poate răspunde în termeni simpli. Adică, dacă primul număr este mai mare, atunci rețeaua neuronală a decis că a văzut un câine, iar dacă al doilea, atunci o pisică.

Deci, este timpul să antrenați plasa. Oferim rețelei neuronale o imagine. Ea ne răspunde chiar cu această pereche de numere (a, b). Dar știm cine este în imagine, nu-i așa? Prin urmare, corectăm rețeaua neuronală. Și anume, „forțăm” în stratul de ieșire o pereche de (1, 0) dacă este un câine sau (0, 1) dacă o pisică, și apoi se întâmplă ceva magie (pentru a o înțelege, trebuie să aveți cunoștințe de matematică) , ceea ce face ca rețeaua neuronală să redistribuie greutățile legăturilor. Cea mai comună modalitate de a face această magie este așa-numita. „Repropagare”, dar mai sunt și altele.

După multe imagini diferite, cu care vom face la fel, greutățile conexiunilor dintre neuroni se vor alinia în așa fel încât să distingă bine pisicile de câini.

După cum puteți vedea, magia a apărut în doar două locuri. Pentru a înțelege, trebuie să citiți texte mai stricte. Recomand sa incepi cu asta:

Rețelele neuronale artificiale sunt utilizate în diferite domenii ale științei: de la sisteme de recunoaștere a vorbirii la recunoașterea structurii secundare a proteinelor,...

Inteligența artificială, rețelele neuronale, învățarea automată - ce înseamnă cu adevărat toate aceste concepte populare acum? Pentru majoritatea oamenilor neinițiați, care sunt și eu, ei au părut întotdeauna ceva fantastic, dar de fapt esența lor se află la suprafață. Am avut de multă vreme ideea să scriu într-un limbaj simplu despre rețelele neuronale artificiale. Învățați singuri și spuneți-le altora ce este această tehnologie, cum funcționează, luați în considerare istoria și perspectivele ei. În acest articol, am încercat să nu intru în junglă, ci să vorbesc simplu și popular despre această zonă promițătoare în lumea înaltei tehnologii.

Un pic de istorie

Pentru prima dată, conceptul de rețele neuronale artificiale (ANN) a apărut atunci când s-a încercat să modeleze procesele creierului. Prima descoperire majoră în acest domeniu poate fi considerată crearea modelului rețelei neuronale McCulloch-Pitts în 1943. Oamenii de știință au dezvoltat mai întâi un model de neuron artificial. De asemenea, ei au propus construirea unei rețele din aceste elemente pentru a efectua operații logice. Dar, cel mai important, oamenii de știință au demonstrat că o astfel de rețea este capabilă să învețe.

Următorul pas important a fost dezvoltarea de către Donald Hebb a primului algoritm de calcul ANN în 1949, care a devenit fundamental pentru următoarele câteva decenii. În 1958, Frank Rosenblatt a dezvoltat parceptronul, un sistem care imită procesele creierului. La un moment dat, tehnologia nu avea analogi și este încă fundamentală în rețelele neuronale. În 1986, aproape simultan, independent unul de celălalt, oamenii de știință americani și sovietici au îmbunătățit semnificativ metoda fundamentală de predare a perceptronului multistrat. În 2007, rețelele neuronale au suferit o renaștere. Informaticianul britanic Geoffrey Hinton a fost pionierul algoritmului de învățare profundă pentru rețelele neuronale cu mai multe straturi, care acum este, de exemplu, folosit pentru a opera vehicule fără pilot.

Pe scurt despre principal

În sensul general al cuvântului, rețelele neuronale sunt modele matematice care funcționează pe principiul rețelelor de celule nervoase dintr-un organism animal. ANN-urile pot fi implementate atât în ​​soluții programabile, cât și în soluții hardware. Pentru ușurința percepției, un neuron poate fi reprezentat ca un fel de celulă care are multe intrări și o singură ieșire. Cât de multe semnale de intrare sunt formate într-un semnal de ieșire este determinat de algoritmul de calcul. Valorile eficiente sunt transmise la fiecare intrare neuronală, care sunt apoi distribuite de-a lungul conexiunilor interneuronale (sinopse). Sinapsele au un singur parametru - greutatea, datorită căruia informațiile de intrare se modifică atunci când se deplasează de la un neuron la altul. Cel mai simplu mod de a înțelege cum funcționează rețelele neuronale este să folosiți amestecarea culorilor ca exemplu. Neuronul albastru, verde și roșu au greutăți diferite. Informațiile acelui neuron, a căror greutate va fi dominantă în următorul neuron.

Rețeaua neuronală în sine este un sistem de mulți astfel de neuroni (procesoare). Separat, aceste procesoare sunt destul de simple (mult mai simple decât un procesor de computer personal), dar atunci când sunt conectați la un sistem mare, neuronii sunt capabili să îndeplinească sarcini foarte complexe.

În funcție de domeniul de aplicare, o rețea neuronală poate fi interpretată în moduri diferite.De exemplu, din punctul de vedere al învățării automate, ANN este o metodă de recunoaștere a modelelor. Din punct de vedere matematic, aceasta este o problemă cu mai mulți parametri. Din punctul de vedere al ciberneticii - un model de control adaptiv al roboticii. Pentru inteligența artificială, ANN este o componentă fundamentală pentru modelarea inteligenței naturale folosind algoritmi de calcul.

Principalul avantaj al rețelelor neuronale față de algoritmii de calcul convenționali este capacitatea lor de a fi antrenați. În sensul general al cuvântului, învățarea constă în găsirea coeficienților corecti de conexiune între neuroni, precum și în generalizarea datelor și identificarea relațiilor complexe între semnalele de intrare și de ieșire. De fapt, antrenamentul reușit al rețelei neuronale înseamnă că sistemul va fi capabil să identifice rezultatul corect pe baza datelor care nu se află în setul de antrenament.

Situatia de azi

Și oricât de promițătoare ar fi această tehnologie, până acum ANN-urile sunt încă foarte departe de capacitățile creierului și gândirii umane. Cu toate acestea, rețelele neuronale sunt deja utilizate în multe domenii ale activității umane. Până acum, ei nu sunt capabili să ia decizii extrem de inteligente, dar sunt capabili să înlocuiască o persoană acolo unde era nevoie anterior de el. Printre numeroasele domenii de aplicare ale ANN-urilor se numără: crearea de sisteme de auto-învățare a proceselor de producție, vehicule fără pilot, sisteme de recunoaștere a imaginii, sisteme inteligente de securitate, robotică, sisteme de monitorizare a calității, interfețe de interacțiune vocală, sisteme de analiză și multe altele. O distribuție atât de largă a rețelelor neuronale, printre altele, se datorează apariției diferitelor modalități de a accelera învățarea ANN-urilor.

Până în prezent, piața rețelelor neuronale este uriașă - este de miliarde și miliarde de dolari. După cum arată practica, majoritatea tehnologiilor de rețele neuronale din întreaga lume diferă puțin unele de altele. Cu toate acestea, utilizarea rețelelor neuronale este un exercițiu foarte costisitor, pe care în cele mai multe cazuri doar companiile mari și-l permit. Pentru dezvoltarea, antrenamentul și testarea rețelelor neuronale este necesară o putere mare de calcul, este evident că jucătorii mari de pe piața IT au suficient de mult. Printre principalele companii care conduc dezvoltări în acest domeniu se numără divizia Google DeepMind, divizia Microsoft Research, IBM, Facebook și Baidu.

Desigur, toate acestea sunt bune: rețelele neuronale se dezvoltă, piața crește, dar până acum sarcina principală nu a fost rezolvată. Omenirea nu a reușit să creeze o tehnologie care să fie nici măcar aproape ca capabilități de creierul uman. Să ne uităm la principalele diferențe dintre creierul uman și rețelele neuronale artificiale.

De ce rețelele neuronale sunt încă departe de creierul uman?

Cea mai importantă diferență care schimbă radical principiul și eficiența sistemului este transmisia diferită a semnalelor în rețelele neuronale artificiale și în rețeaua biologică de neuroni. Faptul este că în ANN, neuronii transmit valori care sunt valori reale, adică numere. În creierul uman, impulsurile sunt transmise cu o amplitudine fixă, iar aceste impulsuri sunt aproape instantanee. De aici rezultă o serie de avantaje ale rețelei umane de neuroni.

În primul rând, liniile de comunicare din creier sunt mult mai eficiente și mai economice decât cele din ANN-uri. În al doilea rând, circuitul de impulsuri asigură simplitatea implementării tehnologiei: este suficient să folosiți circuite analogice în loc de mecanisme de calcul complexe. În cele din urmă, rețelele de impulsuri sunt protejate de interferența sunetului. Numerele reale sunt afectate de zgomot, ceea ce crește șansa de eroare.

Rezultat

Desigur, în ultimul deceniu s-a înregistrat un adevărat boom în dezvoltarea rețelelor neuronale. Acest lucru se datorează în primul rând faptului că procesul de învățare ANN a devenit mult mai rapid și mai ușor. De asemenea, așa-numitele rețele neuronale „pre-antrenate” au început să fie dezvoltate în mod activ, ceea ce poate accelera semnificativ procesul de implementare a tehnologiei. Și dacă este prea devreme să spunem dacă rețelele neuronale vor putea vreodată să reproducă pe deplin capacitățile creierului uman, probabilitatea ca în următorul deceniu ANN-urile să poată înlocui o persoană într-un sfert din profesiile existente devine din ce în ce mai mare ca adevăr.

Pentru cei care vor să afle mai multe

  • Marele război neuronal: ce face cu adevărat Google
  • Cum computerele cognitive ne pot schimba viitorul

Un neuron biologic este format dintr-un corp cu un diametru de 3 până la 100 de microni, care conține un nucleu și procese. Există două tipuri de lăstari. axon de obicei un proces lung adaptat pentru a conduce excitația din corpul neuronului. Dendritele- de regulă, procese scurte și foarte ramificate care servesc ca loc principal pentru formarea sinapselor excitatorii și inhibitorii care afectează neuronul (diferiți neuroni au un raport diferit al lungimii axonului și a dendritelor).

Un neuron poate avea mai multe dendrite și, de obicei, un singur axon. Un neuron poate avea conexiuni cu alți 20 de mii de neuroni. Cortexul cerebral uman conține zeci de miliarde de neuroni.

neuron biologic este cel mai important element al celulelor sistemului nervos și materialul de construcție al creierului. Neuronii există sub mai multe forme, în funcție de scopul și localizarea lor, dar în general sunt similari ca structură.

Orez. 12.4 Diagrama unui neuron

Fiecare neuron este un dispozitiv de procesare a informațiilor care primește semnale de la alți neuroni printr-o structură specială de intrare formată din dendrite. Dacă semnalul total de intrare depășește nivelul pragului, atunci celula transmite semnalul mai departe către axon și apoi către structura de ieșire a semnalului, de la care este transmis către alți neuroni. Semnalele sunt transmise cu ajutorul undelor electrice. (În timpul vieții unei persoane, numărul de neuroni nu crește, dar numărul de conexiuni dintre ei crește ca urmare a învățării).

organele de simț umane constau dintr-un număr mare de neuroni interconectați prin mai multe conexiuni. Organul de simț include receptori și căi. În receptori se formează semnale electrochimice, care se propagă cu o viteză de 5 până la 125 de metri pe secundă. Receptorii codifică diferite tipuri de semnale într-un singur cod universal de frecvență-impuls.

Numărul de impulsuri nervoase pe unitatea de timp este proporțional cu intensitatea impactului. Organele de simț au limite inferioare și superioare de sensibilitate. Reacția (E) a simțurilor umane la intensitatea (P) iritației poate fi reprezentată aproximativ de legea Weber-Fechner:

Evident, dacă luăm în considerare influența zgomotului, atunci putem ajunge la formula Shannon, care ne permite să evaluăm capacitatea de informare a unui astfel de organ de simț. Prin educație și instruire, rezoluția organelor de simț poate fi crescută. în afară de o persoană poate distinge o combinație de frecvențe și amplitudini, într-un grad care este inaccesibil dispozitivelor tehnice moderne. Dar organele de simț funcționează într-un interval limitat de frecvență și amplitudine.

La trecerea la o stare excitată, un impuls de excitație este generat în procesul de ieșire (axon), care se propagă de-a lungul acestuia cu o viteză de la 1 la 100 m/s; procesul de propagare se bazează pe o modificare a conductivității locale a membranei axonului în raport cu ionii de sodiu și potasiu. Nu există conexiuni electrice directe între neuroni. Transferul semnalului de la axon la procesul de intrare (dendrită) al altui neuron se realizează chimic într-o zonă specială - sinapsa, unde terminațiile a două celule nervoase se apropie una de alta. Unele dintre sinapse sunt speciale, producând semnale de polaritate inversă pentru a atenua semnalele excitatorii.

În prezent, sunt studiate intens și aspectele globale ale activității creierului - specializarea zonelor sale mari, conexiunile funcționale dintre ele etc. În același timp, se știe puțin despre modul în care informațiile sunt procesate la nivel intermediar, în secțiuni ale unei rețele neuronale care conține doar zeci de mii de celule nervoase.

Uneori, creierul este asemănat cu o mașină de calcul colosală, care diferă de computerele obișnuite doar printr-un număr semnificativ mai mare de elemente constitutive. Se crede că fiecare impuls de excitație poartă o unitate de informație, iar neuronii joacă rolul de comutatoare logice prin analogie cu un computer. Acest punct de vedere este greșit. Munca creierului se bazează pe principii complet diferite. Nu are o structură rigidă de conexiuni între neuroni, care ar fi similară cu circuitul electric al unui computer. Fiabilitatea elementelor sale individuale (neuroni) este mult mai mică decât elementele utilizate pentru a crea computere moderne. Distrugerea chiar și a unor astfel de zone, care conțin un număr destul de mare de neuroni, adesea nu are aproape niciun efect asupra eficienței procesării informațiilor în această zonă a creierului. Unii neuroni mor pe măsură ce corpul îmbătrânește. Niciun computer construit pe principii tradiționale nu va putea funcționa cu daune atât de mari.

Calculatoarele moderne efectuează operații secvențial, o operație pe ciclu. Numărul este extras din memorie, este plasat în CPU, unde se efectuează asupra ei o anumită acțiune în conformitate cu dictatul program instrucțiune, iar rezultatul este din nou stocat în memorie. În general, atunci când se efectuează o singură operație, semnalul electric trebuie să parcurgă o anumită distanță de-a lungul firelor de legătură, ceea ce poate limita viteza computerului.

De exemplu, dacă semnalul parcurge o distanță de 30 cm, atunci rata de repetiție a semnalului nu trebuie să depășească 1 GHz. Dacă operațiunile sunt efectuate secvențial, atunci limita de viteză a unui astfel de computer nu va depăși un miliard de operații pe secundă. În realitate, performanța este limitată și de viteza de răspuns a elementelor individuale ale computerului. Prin urmare, viteza computerelor moderne este deja destul de aproape de limita sa teoretică. Dar această viteză nu este absolut suficientă pentru a organiza managementul sistemelor complexe, rezolvarea problemelor de „inteligență artificială” etc.

Dacă extindem raționamentul de mai sus la creierul uman, rezultatele vor fi absurde. La urma urmei, viteza de propagare a semnalelor de-a lungul fibrelor nervoase este de zeci și sute de milioane de ori mai mică decât la un computer. Dacă creierul ar funcționa folosind principiul computerelor moderne, atunci limita teoretică a vitezei sale ar fi doar mii de operații pe secundă. Dar acest lucru nu este suficient pentru a explica eficiența semnificativ mai mare a creierului.

Evident, activitatea creierului este asociată cu procesarea paralelă a informațiilor. Până în prezent, organizarea calculului paralel este deja folosită în calculatoare, de exemplu, cu procesoare matrice, care sunt o rețea de procesoare mai simple cu memorie proprie. Tehnica calculului paralel constă în faptul că procesorul elementar „știe” doar starea elementului său mic de mediu. Pe baza acestor informații, fiecare procesor calculează starea elementului său la următorul punct în timp. În acest caz, nu există o limită de viteză asociată cu viteza de propagare a semnalului. Funcționarea procesorului cu matrice este rezistentă la deteriorarea locală.

Următorul pas în dezvoltarea ideii de calcul paralel a fost crearea de rețele de calculatoare. Acest tip de „comunitate” de computere seamănă cu un organism multicelular care „își trăiește propria viață”. În același timp, funcționarea unei rețele de calculatoare ca comunitate de calculatoare nu depinde de modul în care este aranjat fiecare computer individual, ce procese în interiorul acestuia asigură prelucrarea informațiilor. Ne putem imagina o rețea formată dintr-un număr foarte mare de calculatoare primitive capabile să efectueze doar câteva operații și să stocheze în memoria lor valorile instantanee ale câtorva cantități.

Din punct de vedere matematic, astfel de rețele, formate din elemente cu un repertoriu simplu de reacții, sunt de obicei considerate ca automate celulare. Creierul este mult mai aproape în principiu de funcționare și structură de un procesor matrice decât de un computer tradițional cu execuție secvențială a operațiilor. Cu toate acestea, există o diferență fundamentală între creierul uman și orice computer paralel. Cert este că rețelele neuronale ale creierului nu sunt implicate în niciun calcul. Gândirea abstractă (manipularea numerelor și a simbolurilor matematice) este secundară mecanismelor fundamentale ale creierului. Este greu de imaginat că atunci când, de exemplu, o pisică depășește o pasăre într-un salt, creierul acesteia rezolvă în câteva fracțiuni de secundă un sistem de ecuații diferențiale neliniare care descriu traiectoria săriturii și alte acțiuni.

Pe această temă poate fi citată următoarea afirmație a lui A. Einstein: „Cuvintele și limbajul, aparent, nu joacă niciun rol în mecanismul meu de gândire. Entitățile fizice, care în realitate, aparent, sunt elemente ale gândirii, sunt anumite semne și imagini mai mult sau mai puțin clare care pot fi reproduse și combinate în mod arbitrar... Cuvintele obișnuite trebuie selectate doar în a doua etapă...”.

Creierul funcționează ca o mașină „analogică” colosală, în care lumea înconjurătoare se reflectă în tiparele spațio-temporale ale activității neuronilor. Un astfel de mecanism al creierului ar putea apărea în mod natural în cursul evoluției biologice.

Pentru cel mai simplu animal, funcția principală a sistemului nervos este de a transforma senzațiile provocate de lumea exterioară într-o anumită activitate motorie. În primele etape ale evoluției, legătura dintre senzația de imagine și mișcarea imaginii este directă, lipsită de ambiguitate și fixată ereditar în structura inițială a conexiunilor dintre neuroni. În etapele ulterioare, această legătură devine mai complicată, apare capacitatea de a învăța. Sentimentul de imagine nu mai este legat rigid de planul de acțiune. În primul rând, se efectuează procesarea intermediară și compararea cu imaginile stocate în memorie. Procesarea intermediară a imaginii devine mai complexă pe măsură ce treci în sus pe scara evolutivă. În cele din urmă, după o dezvoltare îndelungată, se formează un proces pe care îl numim gândire.

Principiul „automatului celular” poate fi folosit pentru recunoașterea modelelor. Sistemul are memorie asociativă dacă, atunci când o anumită imagine este introdusă la intrarea sa, selectează și scoate automat imaginea cea mai apropiată de ea stocată în memorie.

Rețelele neuronale sunt unul dintre domeniile de cercetare în domeniul inteligenței artificiale, bazate pe încercări de reproducere a sistemului nervos uman. Și anume: capacitatea sistemului nervos de a învăța și de a corecta erorile, care ar trebui să ne permită să modelăm, deși destul de grosolan, activitatea creierului uman.

sau sistemul nervos uman este o rețea complexă de structuri umane care asigură comportamentul interconectat al tuturor sistemelor corpului.

Un neuron biologic este o celulă specială care constă structural dintr-un nucleu, un corp celular și procese. Una dintre sarcinile cheie ale unui neuron este de a transmite un impuls electrochimic în întreaga rețea neuronală prin conexiunile disponibile cu alți neuroni. Mai mult, fiecare conexiune este caracterizată de o anumită valoare, numită puterea conexiunii sinaptice. Această valoare determină ce se întâmplă cu impulsul electrochimic atunci când este transferat către un alt neuron: fie va crește, fie va slăbi, fie rămâne neschimbat.

O rețea neuronală biologică are un grad ridicat de conectivitate: un neuron poate avea câteva mii de conexiuni cu alți neuroni. Dar, aceasta este o valoare aproximativă și în fiecare caz este diferită. Transmiterea impulsurilor de la un neuron la altul generează o anumită excitare a întregii rețele neuronale. Mărimea acestei excitații determină răspunsul rețelei neuronale la unele semnale de intrare. De exemplu, o întâlnire a unei persoane cu o veche cunoștință poate duce la o excitare puternică a rețelei neuronale dacă unele amintiri vii și plăcute de viață sunt asociate cu această cunoștință. La rândul său, o excitare puternică a rețelei neuronale poate duce la o creștere a ritmului cardiac, la clipirea mai frecventă a ochilor și la alte reacții. Întâlnirea cu un străin pentru rețeaua neuronală va fi aproape imperceptibilă și, prin urmare, nu va provoca reacții puternice.

Următorul model foarte simplificat al unei rețele neuronale biologice poate fi dat:

Fiecare neuron este format dintr-un corp celular, care conține un nucleu. Multe fibre scurte numite dendrite se ramifică din corpul celular. Dendritele lungi se numesc axoni. Axonii sunt întinși pe distanțe mari, cu mult peste ceea ce este arătat la scară în această figură. De obicei, axonii au o lungime de 1 cm (care este de 100 de ori diametrul corpului celular), dar pot avea o lungime de până la 1 metru.

În anii 60-80 ai secolului XX, direcția prioritară a cercetării în domeniul inteligenței artificiale era. Sistemele experte s-au dovedit, dar numai în domenii foarte specializate. Pentru a crea sisteme inteligente mai versatile, a fost necesară o abordare diferită. Poate că acest lucru i-a determinat pe cercetătorii din inteligența artificială să își îndrepte atenția către rețelele neuronale biologice care stau la baza creierului uman.

Rețelele neuronale din inteligența artificială sunt modele simplificate ale rețelelor neuronale biologice.

Aici se termină asemănarea. Structura creierului uman este mult mai complexă decât cea descrisă mai sus și, prin urmare, nu este posibil să o reproducem cel puțin mai mult sau mai puțin precis.

Rețelele neuronale au multe proprietăți importante, dar cea mai importantă este capacitatea de a învăța. Antrenarea unei rețele neuronale constă în primul rând în schimbarea „puterii” conexiunilor sinaptice dintre neuroni. Următorul exemplu demonstrează clar acest lucru. În experimentul clasic al lui Pavlov, de fiecare dată suna un clopoțel chiar înainte de a hrăni câinele. Câinele a învățat rapid să asocieze sunetul unui clopoțel cu mâncatul. Acest lucru s-a datorat faptului că legăturile sinaptice dintre părțile creierului responsabile de auz și glandele salivare au crescut. Și ulterior, excitarea rețelei neuronale de către sunetul clopotului a început să ducă la o salivare mai puternică la câine.

Astăzi, rețelele neuronale sunt unul dintre domeniile prioritare de cercetare în domeniul inteligenței artificiale.