Rätsel der Mythenbildung und des Denkens: Neuronale Netze des Gehirns. Gehirn, Neuronenkommunikation und Energieeffizienz Menschliches neuronales Netzwerk

Beitrag zum Wettbewerb „bio/mol/text“: Zelluläre Prozesse, die den Informationsaustausch zwischen Neuronen sicherstellen, benötigen viel Energie. Im Laufe der Evolution trug der hohe Stromverbrauch zur Auswahl der effizientesten Mechanismen zur Verschlüsselung und Übertragung von Informationen bei. In diesem Artikel erfahren Sie mehr über den theoretischen Ansatz zur Erforschung der Gehirnenergie, über ihre Rolle in der Pathologieforschung, darüber, welche Neuronen fortgeschrittener sind, warum es für Synapsen manchmal vorteilhaft ist, nicht zu „feuern“, und auch, wie sie selektieren nur die Informationen, die ein Neuron benötigt.

Hauptsponsor des Wettbewerbs ist das Unternehmen: der größte Anbieter von Geräten, Reagenzien und Verbrauchsmaterialien für die biologische Forschung und Produktion.


Sponsor des Publikumspreises und Partner der Nominierung „Biomedicine Today and Tomorrow“ war die Firma „Invitro“.


"Buch" Sponsor des Wettbewerbs - "Alpina Sachbuch"

Ursprung des Ansatzes

Seit Mitte des 20. Jahrhunderts ist bekannt, dass das Gehirn einen erheblichen Teil der Energieressourcen des gesamten Organismus verbraucht: ein Viertel der gesamten Glukose und ⅕ des gesamten Sauerstoffs bei einem höheren Primaten. Dies inspirierte William Levy und Robert Baxter vom Massachusetts Institute of Technology (USA) zu einer theoretischen Analyse der Energieeffizienz der Informationskodierung in biologischen neuronalen Netzen (Abb. 1) . Die Studie basiert auf der folgenden Hypothese. Da der Energieverbrauch des Gehirns hoch ist, ist es vorteilhaft, solche Neuronen zu haben, die am effizientesten arbeiten - sie übertragen nur nützliche Informationen und verbrauchen am wenigsten Energie.

Diese Annahme erwies sich als richtig: Auf einem einfachen neuronalen Netzwerkmodell reproduzierten die Autoren die experimentell gemessenen Werte einiger Parameter. Insbesondere die von ihnen berechnete optimale Frequenz der Impulserzeugung variiert zwischen 6 und 43 Impulsen / s - fast genauso wie in den Neuronen der Basis des Hippocampus. Sie lassen sich nach der Pulsfrequenz in zwei Gruppen einteilen: langsam (~10 Pulse/s) und schnell (~40 Pulse/s). Gleichzeitig ist die erste Gruppe der zweiten deutlich überlegen. Ein ähnliches Bild zeigt sich auch in der Großhirnrinde: Hier gibt es um ein Vielfaches mehr langsame Pyramidenneuronen (~4-9 Impulse/s) als schnelle inhibitorische Interneurone (>100 Impulse/s) , . Das Gehirn „bevorzugt“ also offenbar, weniger schnelle und energieverbrauchende Neuronen zu verwenden, damit sie nicht alle Ressourcen verbrauchen , .

Abbildung 1. Zwei Neuronen sind dargestellt. In einem von ihnen Violett das präsynaptische Protein Synaptophysin ist gefärbt. Ein anderes Neuron ist vollständig gefärbt grün fluoreszierendes Protein. Kleine helle Punkte- synaptische Kontakte zwischen Neuronen. In der Einlage wird ein "Fleck" näher vorgestellt.
Gruppen von Neuronen, die durch Synapsen miteinander verbunden sind, werden genannt Neuronale Netze, . Beispielsweise bilden Pyramidenneuronen und Interneuronen in der Großhirnrinde ausgedehnte Netzwerke. Die gut koordinierte „Konzertarbeit“ dieser Zellen bestimmt unsere höheren kognitiven und anderen Fähigkeiten. Ähnliche Netzwerke, nur von anderen Arten von Neuronen, sind im ganzen Gehirn verteilt, auf bestimmte Weise miteinander verbunden und organisieren die Arbeit des gesamten Organs.

Was sind Interneurone?

Die Neuronen des zentralen Nervensystems werden unterteilt in aktivieren (bilden aktivierende Synapsen) und hemmend (bilden hemmende Synapsen). Letztere sind stark vertreten Interneuronen oder Zwischenneuronen. In der Großhirnrinde und im Hippocampus sind sie für die Bildung von Gehirn-Gamma-Rhythmen verantwortlich, die für die koordinierte, synchrone Arbeit anderer Nervenzellen sorgen. Dies ist äußerst wichtig für die Motorik, die Wahrnehmung sensorischer Informationen, die Gedächtnisbildung usw.

Das Optimum finden

Tatsächlich sprechen wir von einem Optimierungsproblem: Finden des Maximums einer Funktion und Bestimmen der Parameter, unter denen es erreicht wird. In unserem Fall ist die Funktion das Verhältnis der Menge nützlicher Informationen zu den Energiekosten. Die Menge an nützlichen Informationen lässt sich grob mit der in der Informationstheorie weit verbreiteten Shannon-Formel berechnen. Es gibt zwei Methoden zur Berechnung der Energiekosten, und beide liefern plausible Ergebnisse , . Eine davon – die „Ionenzählmethode“ – basiert auf dem Zählen der Anzahl der Na+-Ionen, die während eines bestimmten Signalereignisses (PD oder PSP, siehe Seitenleiste) in das Neuron gelangt sind. Was ist ein aktionspotential“), gefolgt von der Umrechnung in die Anzahl der Moleküle Adenosintriphosphat (ATP), die Hauptenergie-"Währung" der Zellen. Die zweite basiert auf der Beschreibung von Ionenströmen durch die Membran nach den Gesetzen der Elektronik und ermöglicht die Berechnung der Leistung des Ersatzschaltbildes des Neurons, die dann in ATP-Kosten umgerechnet wird.

Diese „optimalen“ Parameterwerte gilt es dann mit den experimentell gemessenen zu vergleichen und festzustellen, wie stark sie sich unterscheiden. Das Gesamtbild der Unterschiede zeigt den Grad an Optimierung eines bestimmten Neurons als Ganzes: Wie real, experimentell gemessen, stimmen die Werte der Parameter mit den berechneten überein. Je schwächer die Unterschiede sind, desto näher ist das Neuron am Optimum und desto effizienter und optimaler arbeitet es energetisch. Andererseits wird ein Vergleich bestimmter Parameter zeigen, in welcher spezifischen Kapazität dieses Neuron dem „Ideal“ nahe kommt.

Weiterhin werden im Zusammenhang mit der Energieeffizienz von Neuronen zwei Prozesse betrachtet, auf denen die Kodierung und Übermittlung von Informationen im Gehirn beruht. Dies ist ein Nervenimpuls oder Aktionspotential, durch das Informationen übertragen werden können geschickt"Adressat" in einer bestimmten Entfernung (von Mikrometern bis anderthalb Meter) und die synaptische Übertragung, die der eigentlichen zugrunde liegt Übertragung Signal von einem Neuron zum anderen.

Aktionspotential

Aktionspotential (PD) ist ein Signal, das Neuronen einander senden. PD sind verschieden: schnell und langsam, klein und groß. Oft sind sie in langen Sequenzen (wie Buchstaben in Wörtern) oder in kurzen hochfrequenten "Packs" organisiert (Abb. 2).

Abbildung 2. Verschiedene Arten von Neuronen erzeugen unterschiedliche Signale. Im Zentrum- Längsschnitt durch das Gehirn eines Säugetiers. Die Einschübe zeigen verschiedene Arten von Signalen, die mit elektrophysiologischen Methoden aufgezeichnet wurden , . aber - Kortikal ( Zerebraler Kortex) Pyramidenneuronen können als niederfrequente Signale ( Regelmäßiges Brennen) und kurze Explosiv- oder Burst-Signale ( Feuerstoß). B - Für Purkinje-Zellen des Kleinhirns ( Kleinhirn) ist nur durch Burst-Aktivität bei sehr hoher Frequenz gekennzeichnet. in - Weiterleitungsneuronen des Thalamus ( Thalamus) haben zwei Wirkungsweisen: Burst und Tonic ( Tonisches Brennen). g - Neuronen des mittleren Teils der Leine ( MHb, Mediale Habenula) des Epithalamus erzeugen tonische Signale niedriger Frequenz.

Was ist ein Aktionspotential?

  1. Membran und Ionen. Die Plasmamembran des Neurons sorgt für eine ungleichmäßige Verteilung von Substanzen zwischen der Zelle und der extrazellulären Umgebung (Abb. 3 B) . Unter diesen Substanzen befinden sich auch kleine Ionen, von denen K + und Na + für die Beschreibung von PD wichtig sind.
    Es gibt wenige Na + -Ionen innerhalb der Zelle, aber viele außerhalb. Aus diesem Grund bemühen sie sich ständig, in den Käfig zu gelangen. Im Gegenteil, es gibt viele K + -Ionen in der Zelle, und sie streben danach, aus ihr herauszukommen. Ionen alleine können das nicht, weil die Membran für sie undurchlässig ist. Für den Durchgang von Ionen durch die Membran ist es notwendig, spezielle Proteine ​​​​zu öffnen - Ionenkanäle Membranen.
  2. Abbildung 3. Neuron, Ionenkanäle und Aktionspotential. aber - Rekonstruktion der Leuchterzelle der Großhirnrinde der Ratte. Blau die Dendriten und der Körper des Neurons sind gefärbt (blauer Fleck in der Mitte), rot- Axon (bei vielen Arten von Neuronen ist das Axon viel verzweigter als die Dendriten). Grüne Und purpurrote Pfeile zeigen die Richtung des Informationsflusses an: Die Dendriten und der Körper des Neurons empfangen es, das Axon sendet es an andere Neuronen. B - Die Membran eines Neurons enthält wie jede andere Zelle Ionenkanäle. Grüne Tassen- Na + -Ionen, Blau- K + -Ionen. in - Änderungen des Membranpotentials während der Erzeugung eines Aktionspotentials (AP) durch das Purkinje-Neuron. Grünanlage: Na-Kanäle sind offen, Na + -Ionen dringen in das Neuron ein, Depolarisation tritt auf. Blauer Bereich: K-Kanäle sind offen, K + tritt aus, Repolarisation tritt auf. Die Überlappung der grünen und blauen Bereiche entspricht dem Zeitraum, in dem Na + eintritt und K + gleichzeitig austritt.

  3. Ionenkanäle. Die Vielfalt der Kanäle ist riesig. Einige von ihnen öffnen sich als Reaktion auf eine Änderung des Membranpotentials, andere - wenn ein Ligand (z. B. ein Neurotransmitter in einer Synapse) bindet, andere - als Folge mechanischer Veränderungen in der Membran usw. Das Öffnen des Kanals besteht darin, seine Struktur zu ändern, wodurch Ionen hindurchtreten können. Einige Kanäle lassen nur eine bestimmte Art von Ionen durch, während andere durch gemischte Leitfähigkeit gekennzeichnet sind.
    Kanäle, die das Membranpotential "fühlen", spielen eine Schlüsselrolle bei der AP-Erzeugung - potenzialabhängig Ionenkanäle. Sie öffnen sich als Reaktion auf Änderungen des Membranpotentials. Darunter interessieren uns spannungsabhängige Natriumkanäle (Na-Kanäle), die nur Na + -Ionen passieren lassen, und spannungsabhängige Kaliumkanäle (K-Kanäle), die nur K + -Ionen passieren lassen.
  4. PD ist eine in der Amplitude relativ starke sprungartige Änderung des Membranpotentials.

  5. Ionenstrom und PD. Die Grundlage von PD ist der Ionenstrom - die Bewegung von Ionen durch die Ionenkanäle der Membran. Da die Ionen geladen sind, führt ihr Strom zu einer Änderung der Gesamtladung innerhalb und außerhalb des Neurons, was unmittelbar eine Änderung des Membranpotentials zur Folge hat.
    Die AP-Erzeugung tritt in der Regel im Anfangssegment des Axons auf - in dem Teil davon, der an den Körper des Neurons angrenzt, . Hier sind viele Na-Kanäle konzentriert. Wenn sie sich öffnen, strömt ein starker Strom von Na + -Ionen in das Axon und a Depolarisation Membranen - eine Abnahme des Membranpotentials im absoluten Wert (Abb. 3 in). Als nächstes müssen Sie zu seinem ursprünglichen Wert zurückkehren - Repolarisation. Dafür sind die K+-Ionen verantwortlich. Wenn sich K-Kanäle öffnen (kurz vor dem AP-Maximum), beginnen K+-Ionen, die Zelle zu verlassen und die Membran zu repolarisieren.
    Depolarisation und Repolarisation sind die beiden Hauptphasen von PD. Daneben werden noch einige weitere unterschieden, die hier mangels Notwendigkeit nicht berücksichtigt werden. Eine detaillierte Beschreibung der Erzeugung von PD findet sich in,. Eine kurze Beschreibung von PD finden Sie auch in den Artikeln zu "Biomolekül".
  6. Anfängliches Axonsegment und AP-Initiation. Was führt zur Öffnung von Na-Kanälen im Anfangssegment des Axons? Auch hier ist die Änderung des Membranpotentials, "kommend" entlang der Dendriten des Neurons (Abb. 3 aber). Das - Postsynaptische Potenziale (PSP) resultierend aus synaptischer Übertragung. Dieser Vorgang wird im Haupttext näher erläutert.
  7. PD durchführen. Na-Kanäle in der Nähe werden AP im Anfangssegment des Axons gegenüber nicht gleichgültig sein. Auch sie werden sich als Reaktion auf diese Änderung des Membranpotentials öffnen, was ebenfalls AP auslösen wird. Letzteres wiederum wird eine ähnliche "Reaktion" im nächsten Segment des Axons hervorrufen, das weiter vom Körper des Neurons entfernt ist, und so weiter. So passiert es Dirigieren PD entlang des Axons, . Irgendwann wird es seine präsynaptischen Enden erreichen ( purpurrote Pfeile in Abb. 3 aber), wo es die synaptische Übertragung auslösen kann.
  8. Der Energieverbrauch für die Erzeugung von AP ist geringer als für die Arbeit von Synapsen. Wie viele Moleküle Adenosintriphosphat (ATP), die Hauptenergie-"Währung", kostet PD? Einer Schätzung zufolge beträgt der Energieverbrauch für die Erzeugung von 4 APs pro Sekunde für Pyramidenneuronen in der Großhirnrinde von Ratten etwa ⅕ des Gesamtenergieverbrauchs des Neurons. Wenn wir andere Signalprozesse berücksichtigen, insbesondere die synaptische Übertragung, beträgt der Anteil ⅘. Für die Kleinhirnrinde, die für die Motorik zuständig ist, sieht es ähnlich aus: 15 % der Energie werden für die Generierung eines Ausgangssignals verbraucht, etwa die Hälfte für die Verarbeitung von Eingangsinformationen. PD ist also bei weitem nicht der energieaufwändigste Prozess. Zeitweise wird für die Arbeit der Synapse mehr Energie benötigt. Dies bedeutet jedoch nicht, dass der Prozess der TE-Erzeugung keine Merkmale der Energieeffizienz aufweist.

Eine Analyse verschiedener Arten von Neuronen (Abb. 4) zeigte, dass Neuronen von Wirbellosen nicht sehr energieeffizient sind und einige Neuronen von Wirbeltieren nahezu perfekt sind. Den Ergebnissen dieser Studie zufolge erwiesen sich die Hippocampus-Interneuronen, die an der Bildung von Erinnerungen und Emotionen beteiligt sind, sowie die thalamokortikalen Relaisneuronen, die den Hauptfluss sensorischer Informationen vom Thalamus zur Großhirnrinde transportieren, als die energiereichsten effizient.

Abbildung 4. Verschiedene Neuronen sind auf unterschiedliche Weise effizient. Die Abbildung zeigt einen Vergleich des Energieverbrauchs verschiedener Arten von Neuronen. Der Energieverbrauch wird in den Modellen wie mit den anfänglichen (realen) Werten der Parameter ( schwarze Säulen) und bei optimalen, bei denen das Neuron einerseits seine ihm zugewiesene Funktion erfüllt, andererseits ein Minimum an Energie aufwendet ( graue Balken). Zwei Arten von Wirbeltierneuronen erwiesen sich als die effektivsten der vorgestellten: Hippocampus-Interneuronen ( Hippocampus-Interneuron der Ratte, RHI) und thalamokortikalen Neuronen ( Thalamokortikale Relaiszelle der Maus, MTCR), da für sie der Energieverbrauch im Originalmodell dem Energieverbrauch des optimierten am nächsten kommt. Im Gegensatz dazu sind wirbellose Neuronen weniger effizient. Legende: SA (Tintenfisch Axon) - Axon des Riesenkalmars; CA (Krebs-Axon) - Krabbenaxon; MFS (Kortikales Interneuron der Maus mit schneller Spitze) - schnelles kortikales Mausinterneuron; BK (Honigbienen-Pilzkörper Kenyon-Zelle) ist die pilzförmige Kenyon-Zelle der Biene.

Warum sind sie effizienter? Weil sie eine geringe Überlappung von Na- und K-Strömen haben. Während der TE-Erzeugung gibt es immer einen Zeitraum, in dem diese Ströme gleichzeitig vorhanden sind (Abb. 3 in). In diesem Fall findet praktisch kein Ladungstransfer statt und die Änderung des Membranpotentials ist minimal. Aber in jedem Fall muss man für diese Strömungen trotz ihrer „Nutzlosigkeit“ in dieser Zeit „bezahlen“. Daher bestimmt seine Dauer, wie viel Energieressourcen verschwendet werden. Je kürzer es ist, desto effizienter ist die Energienutzung. Je länger, desto weniger effektiv. Gerade bei den beiden oben genannten Arten von Neuronen ist diese Zeit dank schneller Ionenkanäle sehr kurz, und PDs sind am effektivsten.

Übrigens sind Interneurone viel aktiver als die meisten anderen Neuronen im Gehirn. Gleichzeitig sind sie extrem wichtig für die koordinierte, synchrone Arbeit von Neuronen, mit denen sie kleine lokale Netzwerke bilden. Wahrscheinlich ist die hohe Energieeffizienz des AP von Interneuronen eine Art Anpassung an ihre hohe Aktivität und Rolle bei der Koordination der Arbeit anderer Neuronen.

Synapse

Die Signalübertragung von einem Neuron zum anderen erfolgt in einem speziellen Kontakt zwischen Neuronen, in Synapse . Wir werden nur überlegen chemische Synapsen (Gibt es noch mehr elektrisch), da sie im Nervensystem sehr häufig vorkommen und wichtig für die Regulierung des Zellstoffwechsels und der Nährstoffversorgung sind.

Am präsynaptischen Ende des Axons bewirkt AP die Freisetzung eines Neurotransmitters in die extrazelluläre Umgebung – zum empfangenden Neuron. Letztere freut sich nur darauf: In der dendritischen Membran binden Rezeptoren – Ionenkanäle einer bestimmten Art – den Neurotransmitter, öffnen sich und lassen verschiedene Ionen passieren. Dies führt zur Erzeugung eines kleinen Postsynaptisches Potenzial(PSP) auf der Dendritenmembran. Es ähnelt AP, hat jedoch eine viel kleinere Amplitude und tritt aufgrund der Öffnung anderer Kanäle auf. Viele dieser kleinen PSPs, jedes von seiner eigenen Synapse, „laufen“ entlang der dendritischen Membran zum Körper des Neurons ( grüne Pfeile in Abb. 3 aber) und erreichen das Anfangssegment des Axons, wo sie die Öffnung von Na-Kanälen verursachen und es "provozieren", AP zu erzeugen.

Solche Synapsen werden genannt aufregend : Sie tragen zur Aktivierung des Neurons und zur Erzeugung von AP bei. Es gibt auch hemmend Synapsen. Im Gegenteil, sie tragen zur Hemmung bei und verhindern die Bildung von AP. Oft befinden sich beide Synapsen auf demselben Neuron. Ein gewisses Verhältnis zwischen Hemmung und Erregung ist wichtig für die normale Funktion des Gehirns, die Bildung von Gehirnrhythmen, die mit höheren kognitiven Funktionen einhergehen.

Seltsamerweise kann es vorkommen, dass die Freisetzung eines Neurotransmitters in der Synapse überhaupt nicht stattfindet – dies ist ein probabilistischer Prozess. Neuronen sparen auf diese Weise Energie: Die synaptische Übertragung bestimmt bereits etwa die Hälfte des gesamten Energieverbrauchs von Neuronen. Wenn Synapsen immer feuerten, würde die gesamte Energie darauf verwendet, sie zum Laufen zu bringen, und es blieben keine Ressourcen für andere Prozesse übrig. Darüber hinaus ist es die geringe Wahrscheinlichkeit (20–40 %) der Neurotransmitterfreisetzung, die der höchsten Energieeffizienz von Synapsen entspricht. Das Verhältnis der Nutzinformationsmenge zur aufgewendeten Energie ist dabei maximal, . Es stellt sich also heraus, dass „Ausfälle“ eine wichtige Rolle bei der Arbeit von Synapsen und dementsprechend des gesamten Gehirns spielen. Und Sie müssen sich keine Gedanken über die Signalübertragung mit manchmal „nicht funktionierenden“ Synapsen machen, da es normalerweise viele Synapsen zwischen Neuronen gibt und mindestens eine davon funktioniert.

Ein weiteres Merkmal der synaptischen Übertragung ist die Aufteilung des allgemeinen Informationsflusses in separate Komponenten entsprechend der Modulationsfrequenz des eingehenden Signals (grob gesagt die Frequenz eingehender APs). Dies liegt an der Kombination verschiedener Rezeptoren auf der postsynaptischen Membran. Einige Rezeptoren werden sehr schnell aktiviert: zum Beispiel AMPA-Rezeptoren (AMPA kommt von α- ein Mino-3-hydroxy-5- m Ethyl-4-isoxazol P ropionisch ein cid). Wenn nur solche Rezeptoren auf dem postsynaptischen Neuron vorhanden sind, kann es ein hochfrequentes Signal deutlich wahrnehmen (wie zum Beispiel in Abb. 2 in). Das deutlichste Beispiel sind die Neuronen des Hörsystems, die daran beteiligt sind, den Ort der Schallquelle zu bestimmen und kurze Geräusche wie Klickgeräusche, die in Sprache weit verbreitet sind, genau zu erkennen. NMDA-Rezeptoren (NMDA - von n -m ethyl- D -ein spartate) sind langsamer. Sie ermöglichen Neuronen, Signale mit niedrigerer Frequenz auszuwählen (Abb. 2 g), sowie die Hochfrequenzreihe von AP als etwas Einheitliches wahrzunehmen - die sogenannte Integration synaptischer Signale. Es gibt noch langsamere metabotrope Rezeptoren, die bei Bindung eines Neurotransmitters ein Signal an eine Kette von intrazellulären „Second Messengers“ übermitteln, um verschiedenste zelluläre Prozesse zu steuern. Beispielsweise sind G-Protein-assoziierte Rezeptoren weit verbreitet. Je nach Typ regulieren sie beispielsweise die Anzahl der Kanäle in der Membran oder modulieren direkt deren Funktion.

Verschiedene Kombinationen aus schnellen AMPA-, langsameren NMDA- und metabotropen Rezeptoren ermöglichen es Neuronen, die für sie nützlichsten Informationen auszuwählen und zu nutzen, die für ihre Funktion wichtig sind. Und "unnütze" Informationen werden eliminiert, sie werden vom Neuron nicht "wahrgenommen". In diesem Fall müssen Sie keine Energie für die Verarbeitung unnötiger Informationen aufwenden. Dies ist ein weiterer Aspekt der Optimierung der synaptischen Übertragung zwischen Neuronen.

Was sonst?

Die Energieeffizienz von Gehirnzellen wird auch in Bezug auf ihre Morphologie untersucht. Die Forschung zeigt, dass die Verzweigung von Dendriten und Axonen nicht chaotisch ist und auch Energie spart. Beispielsweise verzweigt sich das Axon so, dass die Gesamtlänge des Pfades, den das AP durchläuft, am kleinsten ist. In diesem Fall ist der Energieverbrauch zum Leiten von AP entlang des Axons minimal.

Eine Verringerung des Energieverbrauchs eines Neurons wird auch mit einem bestimmten Verhältnis von hemmenden und erregenden Synapsen erreicht. Dies steht beispielsweise in direktem Zusammenhang mit Ischämie(ein pathologischer Zustand, der durch einen gestörten Blutfluss in den Gefäßen verursacht wird) des Gehirns. Bei dieser Pathologie sind höchstwahrscheinlich die stoffwechselaktivsten Neuronen die ersten, die versagen. Im Cortex werden sie durch inhibitorische Interneurone repräsentiert, die auf vielen anderen Pyramidenneuronen inhibitorische Synapsen bilden. Als Folge des Todes von Interneuronen nimmt die Pyramidenhemmung ab. Dadurch erhöht sich das Gesamtaktivitätsniveau der letzteren (aktivierende Synapsen feuern häufiger, APs werden häufiger generiert). Unmittelbar darauf folgt eine Erhöhung ihres Energieverbrauchs, was unter Ischämiebedingungen zum Absterben von Neuronen führen kann.

Bei der Erforschung von Pathologien wird auch der synaptischen Übertragung als dem energieaufwändigsten Prozess Beachtung geschenkt. Beispielsweise kommt es bei der Parkinson-, Huntington-, Alzheimer-Krankheit zu einer Fehlfunktion oder einem Transport zu den Synapsen der Mitochondrien, die eine wichtige Rolle bei der ATP-Synthese spielen. Im Falle der Parkinson-Krankheit kann dies auf eine Störung und den Tod von Neuronen mit hohem Energieverbrauch der Substantia nigra zurückzuführen sein, die für die Regulierung von Motorik und Muskeltonus wichtig ist. Bei der Huntington-Krankheit stört das mutierte Protein Huntingtin die Mechanismen der Abgabe neuer Mitochondrien an Synapsen, was zu einem "Energiemangel" der letzteren, einer erhöhten Anfälligkeit von Neuronen und einer übermäßigen Aktivierung führt. All dies kann zu einer weiteren Störung der Arbeit von Neuronen führen, gefolgt von einer Atrophie des Striatums und der Großhirnrinde. Bei der Alzheimer-Krankheit kommt es aufgrund der Ablagerung von Amyloid-Plaques zu einer Störung der Mitochondrien (parallel zu einer Abnahme der Anzahl von Synapsen). Die Wirkung des letzteren auf Mitochondrien führt zu oxidativem Stress sowie zu Apoptose - Zelltod von Neuronen.

Noch einmal über alles

Ende des 20. Jahrhunderts wurde ein Ansatz zur Untersuchung des Gehirns geboren, bei dem zwei wichtige Eigenschaften gleichzeitig berücksichtigt werden: wie viel ein Neuron (oder ein neuronales Netzwerk oder eine Synapse) nützliche Informationen codiert und überträgt und wie viel Energie es ist verbringt, . Ihr Verhältnis ist eine Art Kriterium für die Energieeffizienz von Neuronen, neuronalen Netzen und Synapsen.

Die Verwendung dieses Kriteriums in der Computational Neuroscience hat zu einem erheblichen Wissenszuwachs hinsichtlich der Rolle bestimmter Phänomene, Prozesse usw. geführt. Insbesondere die geringe Wahrscheinlichkeit der Neurotransmitterfreisetzung in der Synapse, ein gewisses Gleichgewicht zwischen Neuronenhemmung und -erregung, die Freisetzung nur einer bestimmten Art eingehender Informationen aufgrund einer bestimmten Kombination von Rezeptoren – all dies trägt dazu bei, wertvolle Energieressourcen zu sparen.

Darüber hinaus lässt sich durch die bloße Bestimmung des Energieverbrauchs von Signalprozessen (z. B. Erzeugung, Weiterleitung von AP, synaptische Übertragung) herausfinden, welche von ihnen bei einer pathologischen Störung der Nährstoffversorgung zuerst leiden werden, . Da Synapsen die meiste Energie benötigen, um zu funktionieren, sind sie die ersten, die bei Pathologien wie Ischämie, Alzheimer und Huntington-Krankheit versagen. Ebenso hilft die Bestimmung des Energieverbrauchs verschiedener Arten von Neuronen herauszufinden, welche von ihnen im Falle einer Pathologie früher sterben als andere. Zum Beispiel werden bei der gleichen Ischämie zuerst die Interneurone des Kortex versagen. Dieselben Neuronen sind aufgrund des intensiven Stoffwechsels die anfälligsten Zellen während des Alterns, der Alzheimer-Krankheit und der Schizophrenie.

Danke

Ich bin meinen Eltern Olga Natalevich und Alexander Zhukov, den Schwestern Lyuba und Alena, meinem Betreuer Alexei Brazhe und den wunderbaren Freunden im Labor Evelina Nickelsparg und Olga Slatinskaya aufrichtig dankbar für ihre Unterstützung und Inspiration, wertvolle Kommentare beim Lesen des Artikels. Ich bin auch Anna Petrenko, der Herausgeberin des Artikels, und Anton Chugunov, dem Chefredakteur von Biomolecule, sehr dankbar für Anmerkungen, Vorschläge und Kommentare.

Literatur

  1. Gefräßiges Gehirn;
  2. SEYMOUR S. KETY. (1957). DER ALLGEMEINE STOFFWECHSEL DES GEHIRNS IN VIVO. Stoffwechsel des Nervensystems. 221-237;
  3. L. Sokoloff, M. Reivich, C. Kennedy, M. H. Des Rosiers, C. S. Patlak, et. (1977). DIE DEOXYGLUCOSE-METHODE ZUR MESSUNG DER LOKALEN ZEREBRALEN GLUCOSEVERWERTUNG: THEORIE, VERFAHREN UND NORMALWERTE BEI ​​DER BEWUSSTEN UND ANÄSTHESIERTEN ALBINO-RATTE. J Neurochem. 28 , 897-916;
  4. Magistretti P.J. (2008). Energiestoffwechsel des Gehirns. In Fundamental Neuroscience // Ed by. Squire L. R., Berg D., Bloom F. E., du Lac S., Ghosh A., Spitzer N. San Diego: Academic Press, 2008. S. 271–297;
  5. Pierre J. Magistretti, Igor Allaman. (2015). Eine zelluläre Perspektive auf den Energiestoffwechsel des Gehirns und funktionelle Bildgebung. Neuron. 86 , 883-901;
  6. William B. Levy, Robert A. Baxter. (1996). Energieeffiziente neuronale Codes. Neuronale Berechnung. 8 , 531-543;
  7. Scharfe P.E. und Green C. (1994). Räumliche Korrelate von Feuermustern einzelner Zellen im Subiculum der sich frei bewegenden Ratte. J. Neurosci. 14 , 2339–2356;
  8. H. Hu, J. Gan, P. Jonas. (2014). Schnelle Spitzen, Parvalbumin+ GABAerge Interneurone: Vom zellulären Design zur Mikroschaltkreisfunktion. Wissenschaft. 345 , 1255263-1255263;
  9. Oliver Kann, Ismini E. Papageorgiou, Andreas Draguhn. (2014). Hochenergetische inhibitorische Interneurone sind ein zentrales Element für die Informationsverarbeitung in kortikalen Netzwerken. J-Cereb Blood Flow Metab. 34 , 1270-1282;
  10. David Attwell, Simon B. Laughlin. (2001). Ein Energiehaushalt für die Signalübertragung in der grauen Substanz des Gehirns. J-Cereb Blood Flow Metab. 21 , 1133-1145;
  11. Henry Markram, Maria Toledo-Rodriguez, Yun Wang, Anirudh Gupta, Gilad Silberberg, Caizhi Wu. (2004).

Wenn Sie "an den Fingern" erklären, dann sind die Hauptelemente eines jeden neuronalen Netzes Neuronen. Jedes Neuron erhält ein oder mehrere Signale (Zahlen) als Eingabe, verarbeitet sie auf knifflige (oder nicht so) Weise und gibt das Ergebnis dann weiter.

Neuronen werden in aufeinanderfolgenden Schichten kombiniert. Getrennt davon werden zwei extreme Schichten unterschieden - Eingabe und Ausgabe. Über die Eingabeschicht erhält das neuronale Netz Informationen, über die Ausgabeschicht übermittelt es das Ergebnis seiner Verarbeitung. Alle Zwischenschichten werden als verborgen bezeichnet.

Jede verborgene Schicht ist mit zwei benachbarten (vorherige und nächste) durch ein komplexes System von Verbindungen verbunden (Entschuldigung für die Tautologie). Im einfachsten Fall gelangen Signale von jedem Neuron der vorherigen Schicht in jedes seiner Neuronen, werden verarbeitet und gehen dann von dort zu jedem Neuron der nächsten Schicht.

Das ist jedoch noch nicht alles. Jeder Link hat ein "Gewicht". Das heißt, das Signal von einem Neuron ändert seinen Wert etwas, während es zum nächsten geht (der Wert dieses Signals wird mit diesem "Gewicht" multipliziert).

Wenn den Gewichten von Verbindungen zufällige Werte zugewiesen werden, wird ein solches neuronales Netzwerk nichts Sinnvolles tun. Das heißt, sie müssen noch irgendwie richtig ausgewählt werden. Mit anderen Worten, das neuronale Netz muss trainiert werden.

Wie Lernen abläuft, lässt sich leichter an einem Beispiel zeigen. Nehmen wir an, wir trainieren ein neuronales Netzwerk, um Bilder von Katzen von Bildern von Hunden zu unterscheiden. Dann senden wir ein Bild an die Eingabeschicht des neuronalen Netzwerks, und am Ausgang gibt das neuronale Netzwerk ein Paar reeller Zahlen von jeweils 0 bis 1 zurück. Das erste bedeutet, wie sicher das neuronale Netzwerk ist, dass es ein Hund ist, und das zweite - dass es eine Katze ist. Warum sie das so machen, ist eine Frage, die sich nicht pauschal beantworten lässt. Das heißt, wenn die erste Zahl größer ist, hat das neuronale Netzwerk entschieden, dass es einen Hund gesehen hat, und wenn die zweite, dann eine Katze.

Zeit also, das Mesh zu trainieren. Wir geben dem neuronalen Netz ein Bild. Sie antwortet uns mit genau diesem Zahlenpaar (a, b). Aber wir wissen, wer auf dem Bild ist, oder? Deshalb korrigieren wir das neuronale Netz. Wir "zwängen" nämlich ein Paar (1, 0) für einen Hund oder (0, 1) für eine Katze in die Ausgabeschicht, und dann geschieht etwas Magisches (um es zu verstehen, müssen Sie über mathematische Kenntnisse verfügen). , wodurch das neuronale Netzwerk die Linkgewichte neu verteilt. Die gebräuchlichste Art, diese Magie zu machen, ist die sogenannte. "Backpropagation", aber es gibt noch andere.

Nach vielen verschiedenen Bildern, mit denen wir dasselbe tun werden, werden sich die Gewichte der Verbindungen zwischen Neuronen so anordnen, dass Katzen und Hunde gut unterschieden werden können.

Wie Sie sehen können, entstand Magie nur an zwei Orten. Um es zu verstehen, müssen Sie strengere Texte lesen. Ich empfehle damit anzufangen:

Künstliche neuronale Netze werden in verschiedenen Bereichen der Wissenschaft eingesetzt: von Spracherkennungssystemen über Protein-Sekundärstrukturerkennung,...

Künstliche Intelligenz, neuronale Netze, maschinelles Lernen – was bedeuten all diese mittlerweile populären Konzepte wirklich? Für die meisten Uneingeweihten, was ich selbst bin, schienen sie immer etwas Phantastisches zu sein, aber tatsächlich liegt ihre Essenz an der Oberfläche. Ich hatte schon lange die Idee, in einfacher Sprache über künstliche neuronale Netze zu schreiben. Lernen Sie selbst und erzählen Sie anderen, was diese Technologie ist, wie sie funktioniert, betrachten Sie ihre Geschichte und Perspektiven. In diesem Artikel habe ich versucht, nicht in den Dschungel zu geraten, sondern einfach und allgemein über diesen vielversprechenden Bereich in der Welt der Hochtechnologie zu sprechen.

Ein bisschen Geschichte

Das Konzept der künstlichen neuronalen Netze (KNN) entstand erstmals bei dem Versuch, die Prozesse des Gehirns zu modellieren. Als erster großer Durchbruch auf diesem Gebiet kann die Entwicklung des neuronalen Netzwerkmodells von McCulloch-Pitts im Jahr 1943 angesehen werden. Wissenschaftler entwickelten zunächst ein Modell eines künstlichen Neurons. Sie schlugen auch den Aufbau eines Netzwerks dieser Elemente vor, um logische Operationen durchzuführen. Vor allem aber haben Wissenschaftler bewiesen, dass ein solches Netzwerk lernfähig ist.

Der nächste wichtige Schritt war die Entwicklung des ersten ANN-Berechnungsalgorithmus durch Donald Hebb im Jahr 1949, der für die nächsten Jahrzehnte grundlegend wurde. 1958 entwickelte Frank Rosenblatt das Parceptron, ein System, das Gehirnprozesse nachahmt. Zu einer Zeit hatte die Technologie keine Analoga und ist immer noch grundlegend in neuronalen Netzen. 1986 haben amerikanische und sowjetische Wissenschaftler fast gleichzeitig und unabhängig voneinander die grundlegende Methode zum Unterrichten eines mehrschichtigen Perzeptrons erheblich verbessert. Im Jahr 2007 erlebten neuronale Netze eine Wiedergeburt. Der britische Informatiker Geoffrey Hinton war Pionier des Deep-Learning-Algorithmus für mehrschichtige neuronale Netze, der heute beispielsweise zum Betrieb unbemannter Fahrzeuge eingesetzt wird.

Kurz zu den wichtigsten

Neuronale Netze im allgemeinen Wortsinn sind mathematische Modelle, die nach dem Prinzip der Vernetzung von Nervenzellen in einem tierischen Organismus arbeiten. ANNs können sowohl in programmierbaren als auch in Hardwarelösungen implementiert werden. Zur leichteren Wahrnehmung kann ein Neuron als eine Art Zelle dargestellt werden, die viele Eingänge und einen Ausgang hat. Wie viele eingehende Signale zu einem ausgehenden Signal geformt werden, bestimmt der Berechnungsalgorithmus. Jedem Neuroneneingang werden Effektivwerte zugeführt, die dann entlang interneuronaler Verbindungen (Synopsen) verteilt werden. Synapsen haben einen Parameter - das Gewicht, aufgrund dessen sich die Eingabeinformationen ändern, wenn sie sich von einem Neuron zum anderen bewegen. Am einfachsten lässt sich die Funktionsweise neuronaler Netze am Beispiel der Farbmischung verstehen. Blaues, grünes und rotes Neuron haben unterschiedliche Gewichte. Die Information dieses Neurons, deren Gewicht im nächsten Neuron dominant sein wird.

Das neuronale Netz selbst ist ein System vieler solcher Neuronen (Prozessoren). Separat sind diese Prozessoren ziemlich einfach (viel einfacher als ein PC-Prozessor), aber wenn sie in ein großes System eingebunden werden, sind Neuronen in der Lage, sehr komplexe Aufgaben auszuführen.

Je nach Anwendungsgebiet kann ein neuronales Netz unterschiedlich interpretiert werden, beispielsweise ist KNN aus Sicht des maschinellen Lernens ein Verfahren zur Mustererkennung. Aus mathematischer Sicht ist dies ein Multiparameterproblem. Aus Sicht der Kybernetik - ein Modell der adaptiven Steuerung der Robotik. Für künstliche Intelligenz ist KNN eine grundlegende Komponente zur Modellierung natürlicher Intelligenz mithilfe von Computeralgorithmen.

Der Hauptvorteil neuronaler Netze gegenüber herkömmlichen Rechenalgorithmen ist ihre Trainierbarkeit. Lernen im allgemeinen Sinne des Wortes besteht darin, die richtigen Verbindungskoeffizienten zwischen Neuronen zu finden, Daten zu verallgemeinern und komplexe Zusammenhänge zwischen Ein- und Ausgangssignalen zu erkennen. Tatsächlich bedeutet ein erfolgreiches neuronales Netzwerktraining, dass das System in der Lage sein wird, das richtige Ergebnis basierend auf Daten zu identifizieren, die nicht im Trainingssatz enthalten sind.

Heutige Stellung

Und egal, wie vielversprechend diese Technologie wäre, bisher sind KNN noch sehr weit von den Fähigkeiten des menschlichen Gehirns und Denkens entfernt. Dennoch werden neuronale Netze bereits in vielen Bereichen des menschlichen Handelns eingesetzt. Bisher sind sie nicht in der Lage, hochintelligente Entscheidungen zu treffen, aber sie sind in der Lage, einen Menschen dort zu ersetzen, wo er zuvor gebraucht wurde. Zu den zahlreichen Anwendungsgebieten von KNNs gehören: die Erstellung selbstlernender Systeme von Produktionsprozessen, unbemannte Fahrzeuge, Bilderkennungssysteme, intelligente Sicherheitssysteme, Robotik, Qualitätsüberwachungssysteme, Sprachinteraktionsschnittstellen, Analysesysteme und vieles mehr. Eine so weite Verbreitung neuronaler Netze ist unter anderem auf das Aufkommen verschiedener Möglichkeiten zurückzuführen, das Lernen von KNNs zu beschleunigen.

Bis heute ist der Markt für neuronale Netze riesig – es geht um Milliarden und Abermilliarden von Dollar. Wie die Praxis zeigt, unterscheiden sich die meisten neuronalen Netzwerktechnologien weltweit kaum voneinander. Allerdings ist der Einsatz neuronaler Netze ein sehr kostspieliges Unterfangen, das sich meist nur große Unternehmen leisten können. Für die Entwicklung, das Training und das Testen von neuronalen Netzen wird eine große Rechenleistung benötigt, davon haben große Player im IT-Markt offensichtlich genug. Zu den wichtigsten führenden Unternehmen in diesem Bereich gehören die Abteilung Google DeepMind, die Abteilung Microsoft Research, IBM, Facebook und Baidu.

Das ist natürlich alles gut: Neuronale Netze entwickeln sich, der Markt wächst, aber die Hauptaufgabe ist noch nicht gelöst. Der Menschheit ist es nicht gelungen, eine Technologie zu entwickeln, deren Fähigkeiten dem menschlichen Gehirn auch nur nahe kommen. Schauen wir uns die Hauptunterschiede zwischen dem menschlichen Gehirn und künstlichen neuronalen Netzen an.

Warum sind neuronale Netze noch weit vom menschlichen Gehirn entfernt?

Der wichtigste Unterschied, der das Prinzip und die Effizienz des Systems radikal verändert, ist die unterschiedliche Signalübertragung in künstlichen neuronalen Netzen und im biologischen Netzwerk von Neuronen. Tatsache ist, dass Neuronen im ANN Werte übertragen, die reale Werte sind, also Zahlen. Im menschlichen Gehirn werden Impulse mit einer festen Amplitude übertragen, und diese Impulse sind fast augenblicklich. Daraus folgt eine Reihe von Vorteilen des menschlichen Neuronennetzwerks.

Erstens sind Kommunikationsleitungen im Gehirn viel effizienter und sparsamer als die in KNNs. Zweitens gewährleistet die Impulsschaltung die Einfachheit der Technologieimplementierung: Es reicht aus, analoge Schaltungen anstelle komplexer Rechenmechanismen zu verwenden. Letztlich sind Impulsnetze vor Schalleinstreuungen geschützt. Reelle Zahlen werden durch Rauschen beeinflusst, was die Fehlerwahrscheinlichkeit erhöht.

Ergebnis

Natürlich gab es im letzten Jahrzehnt einen regelrechten Boom in der Entwicklung neuronaler Netze. Das liegt vor allem daran, dass der KNN-Lernprozess viel schneller und einfacher geworden ist. Außerdem wurde mit der aktiven Entwicklung der sogenannten „vortrainierten“ neuronalen Netze begonnen, die den Prozess der Implementierung der Technologie erheblich beschleunigen können. Und auch wenn es noch zu früh ist zu sagen, ob neuronale Netze jemals in der Lage sein werden, die Fähigkeiten des menschlichen Gehirns vollständig zu reproduzieren, wird die Wahrscheinlichkeit, dass KNNs in den nächsten zehn Jahren eine Person in einem Viertel der bestehenden Berufe ersetzen können, immer größer eher die Wahrheit.

Für diejenigen, die mehr wissen wollen

  • Der große neurale Krieg: Was Google wirklich vorhat
  • Wie kognitive Computer unsere Zukunft verändern können

Ein biologisches Neuron besteht aus einem Körper mit einem Durchmesser von 3 bis 100 Mikrometern, der einen Kern und Fortsätze enthält. Es gibt zwei Arten von Trieben. Axon normalerweise ein langer Prozess, der angepasst ist, um die Erregung vom Körper des Neurons zu leiten. Dendriten- in der Regel kurze und stark verzweigte Prozesse, die als Hauptort für die Bildung von erregenden und hemmenden Synapsen dienen, die das Neuron betreffen (verschiedene Neuronen haben ein unterschiedliches Verhältnis der Länge von Axon und Dendriten).

Ein Neuron kann mehrere Dendriten und normalerweise nur ein Axon haben. Ein Neuron kann Verbindungen zu 20.000 anderen Neuronen haben. Die menschliche Großhirnrinde enthält mehrere zehn Milliarden Neuronen.

biologisches Neuron ist das wichtigste Element der Zellen des Nervensystems und der Baustoff des Gehirns. Neuronen existieren in verschiedenen Formen, abhängig von ihrem Zweck und Ort, aber im Allgemeinen sind sie in ihrer Struktur ähnlich.

Reis. 12.4 Diagramm eines Neurons

Jedes Neuron ist ein Informationsverarbeitungsgerät, das Signale von anderen Neuronen über eine spezielle Eingangsstruktur aus Dendriten empfängt. Wenn das Gesamteingangssignal den Schwellenwert überschreitet, überträgt die Zelle das Signal weiter zum Axon und dann zur Signalausgangsstruktur, von der es zu anderen Neuronen übertragen wird. Signale werden mit elektrischen Wellen übertragen. (Während des Lebens eines Menschen nimmt die Anzahl der Neuronen nicht zu, aber die Anzahl der Verbindungen zwischen ihnen wächst als Ergebnis des Lernens).

menschliche Sinnesorgane bestehen aus einer großen Anzahl von Neuronen, die durch viele Verbindungen miteinander verbunden sind. Das Sinnesorgan umfasst Rezeptoren und Signalwege. In den Rezeptoren werden elektrochemische Signale gebildet, die sich mit einer Geschwindigkeit von 5 bis 125 Metern pro Sekunde ausbreiten. Rezeptoren codieren verschiedene Arten von Signalen in einen einzigen universellen Frequenz-Puls-Code.

Die Anzahl der Nervenimpulse pro Zeiteinheit ist proportional zur Intensität des Aufpralls. Die Sinnesorgane haben untere und obere Grenzen der Empfindlichkeit. Die Reaktion (E) der menschlichen Sinne auf die Reizintensität (P) lässt sich näherungsweise durch das Weber-Fechner-Gesetz darstellen:

Berücksichtigt man natürlich den Einfluss des Rauschens, so kommt man auf die Shannon-Formel, die es erlaubt, die Informationskapazität eines solchen Sinnesorgans zu bewerten. Durch Bildung und Training kann die Auflösung der Sinnesorgane gesteigert werden. neben eine Person kann eine Kombination von Frequenzen und Amplituden unterscheiden, in einem Ausmaß, das modernen technischen Geräten nicht zugänglich ist. Aber die Sinnesorgane funktionieren in einem begrenzten Frequenz- und Amplitudenbereich.

Beim Übergang in einen angeregten Zustand wird im Ausgangsprozess (Axon) ein Anregungspuls erzeugt, der sich entlang ihm mit einer Geschwindigkeit von 1 bis 100 m/s ausbreitet; der Ausbreitungsprozess beruht auf einer Änderung der lokalen Leitfähigkeit der Axonmembran gegenüber Natrium- und Kaliumionen. Es gibt keine direkten elektrischen Verbindungen zwischen Neuronen. Die Signalübertragung vom Axon zum Eingangsprozess (Dendriten) eines anderen Neurons erfolgt chemisch in einem speziellen Bereich – der Synapse, wo die Enden zweier Nervenzellen einander nahe kommen. Einige der Synapsen sind speziell und erzeugen Signale mit umgekehrter Polarität, um erregende Signale zu dämpfen.

Derzeit werden auch globale Aspekte der Gehirnaktivität intensiv untersucht - die Spezialisierung ihrer großen Bereiche, die funktionellen Verbindungen zwischen ihnen usw. Gleichzeitig ist wenig darüber bekannt, wie Informationen auf der mittleren Ebene verarbeitet werden, in Abschnitten eines neuronalen Netzwerks, das nur Zehntausende von Nervenzellen enthält.

Manchmal wird das Gehirn mit einer kolossalen Rechenmaschine verglichen, die sich von den üblichen Computern nur durch eine wesentlich größere Anzahl von Bestandteilen unterscheidet. Es wird angenommen, dass jeder Erregungsimpuls eine Informationseinheit trägt, und Neuronen spielen analog zu einem Computer die Rolle von logischen Schaltern. Diese Sichtweise ist falsch. Die Arbeit des Gehirns basiert auf ganz anderen Prinzipien. Es hat keine starre Struktur von Verbindungen zwischen Neuronen, die der elektrischen Schaltung eines Computers ähneln würde. Die Zuverlässigkeit seiner einzelnen Elemente (Neuronen) ist viel geringer als die der Elemente, die zur Herstellung moderner Computer verwendet werden. Die Zerstörung selbst solcher Bereiche, die eine ziemlich große Anzahl von Neuronen enthalten, hat oft fast keine Auswirkungen auf die Effizienz der Informationsverarbeitung in diesem Bereich des Gehirns. Einige Neuronen sterben mit zunehmendem Alter des Körpers ab. Kein Computer, der auf traditionellen Prinzipien aufgebaut ist, wird in der Lage sein, mit solch umfangreichen Schäden zu arbeiten.

Moderne Computer führen Operationen nacheinander aus, eine Operation pro Zyklus. Die Nummer wird aus extrahiert Erinnerung, wird eingelegt Zentralprozessor, wo eine Aktion gemäß dem Diktat ausgeführt wird Programm Anweisung, und das Ergebnis wird wieder im Speicher abgelegt. Im Allgemeinen muss das elektrische Signal bei der Ausführung einer einzelnen Operation eine bestimmte Strecke entlang der Verbindungsdrähte laufen, was die Geschwindigkeit des Computers begrenzen kann.

Wenn das Signal beispielsweise eine Strecke von 30 cm zurücklegt, sollte die Signalwiederholungsrate 1 GHz nicht überschreiten. Wenn die Operationen sequentiell ausgeführt werden, wird die Geschwindigkeitsbegrenzung eines solchen Computers eine Milliarde Operationen pro Sekunde nicht überschreiten. In Wirklichkeit wird die Leistung auch durch die Reaktionsgeschwindigkeit einzelner Elemente des Computers begrenzt. Daher ist die Geschwindigkeit moderner Computer bereits ziemlich nah an ihrer theoretischen Grenze. Aber diese Geschwindigkeit reicht absolut nicht aus, um das Management komplexer Systeme, die Lösung von Problemen der "künstlichen Intelligenz" usw. zu organisieren.

Wenn wir die obige Argumentation auf das menschliche Gehirn ausdehnen, werden die Ergebnisse absurd sein. Schließlich ist die Ausbreitungsgeschwindigkeit von Signalen entlang von Nervenfasern zehn- und hundertmillionenmal geringer als in einem Computer. Wenn das Gehirn nach dem Prinzip moderner Computer arbeiten würde, wäre die theoretische Grenze seiner Geschwindigkeit nur bei Tausenden von Operationen pro Sekunde. Aber das reicht eindeutig nicht aus, um die deutlich höhere Leistungsfähigkeit des Gehirns zu erklären.

Offensichtlich ist die Aktivität des Gehirns mit der parallelen Verarbeitung von Informationen verbunden. Bis heute wird die Organisation des parallelen Rechnens bereits in Computern verwendet, beispielsweise mit Matrixprozessoren, die ein Verbund von einfacheren Prozessoren mit eigenem Speicher sind. Die Technik des parallelen Rechnens besteht darin, dass der elementare Prozessor nur über den Zustand seines kleinen Elements der Umgebung „weiß“. Basierend auf diesen Informationen berechnet jeder Prozessor den Zustand seines Elements zum nächsten Zeitpunkt. In diesem Fall gibt es keine Geschwindigkeitsbegrenzung, die mit der Geschwindigkeit der Signalausbreitung verbunden ist. Der Betrieb des Matrixprozessors ist widerstandsfähig gegenüber lokaler Beschädigung.

Der nächste Schritt in der Entwicklung der Idee des parallelen Rechnens war die Schaffung von Computernetzwerken. Eine solche „Gemeinschaft“ von Computern gleicht einem mehrzelligen Organismus, der „sein eigenes Leben führt“. Dabei hängt das Funktionieren eines Computernetzes als Computergemeinschaft nicht davon ab, wie jeder einzelne Computer angeordnet ist, welche Prozesse darin die Informationsverarbeitung sicherstellen. Man kann sich ein Netzwerk vorstellen, das aus einer sehr großen Anzahl primitiver Computer besteht, die nur wenige Operationen ausführen und in ihrem Speicher die Momentanwerte einiger Größen speichern können.

Aus mathematischer Sicht werden solche Netzwerke, die aus Elementen mit einem einfachen Reaktionsrepertoire bestehen, normalerweise als betrachtet zellulare Automaten. Das Gehirn ist im Funktionsprinzip und in der Struktur einem Matrixprozessor viel näher als einem herkömmlichen Computer mit sequentieller Ausführung von Operationen. Es gibt jedoch einen grundlegenden Unterschied zwischen dem menschlichen Gehirn und jedem Parallelcomputer. Tatsache ist, dass die neuronalen Netze des Gehirns an keinerlei Berechnungen beteiligt sind. Abstraktes Denken (Umgang mit Zahlen und mathematischen Symbolen) ist den grundlegenden Mechanismen des Gehirns untergeordnet. Es ist schwer vorstellbar, dass, wenn beispielsweise eine Katze einen Vogel bei einem Sprung überholt, ihr Gehirn in Sekundenbruchteilen ein System nichtlinearer Differentialgleichungen löst, die die Flugbahn des Sprungs und andere Aktionen beschreiben.

Zu diesem Thema kann folgende Aussage von A. Einstein zitiert werden: „Wörter und Sprache spielen anscheinend keine Rolle in meinem Denkmechanismus. Physische Entitäten, die in Wirklichkeit anscheinend Elemente des Denkens sind, sind bestimmte Zeichen und mehr oder weniger klare Bilder, die beliebig reproduziert und kombiniert werden können ... Gewöhnliche Wörter müssen erst in der zweiten Stufe ausgewählt werden ... ".

Das Gehirn arbeitet wie eine kolossale "analoge" Maschine, in der sich die umgebende Welt in den räumlich-zeitlichen Mustern der Neuronenaktivität widerspiegelt. Ein solcher Mechanismus des Gehirns könnte natürlich im Laufe der biologischen Evolution entstehen.

Für das einfachste Tier besteht die Hauptfunktion des Nervensystems darin, die von der Außenwelt verursachten Empfindungen in eine bestimmte motorische Aktivität umzuwandeln. In den frühen Stadien der Evolution ist die Verbindung zwischen Bildempfindung und Bildbewegung direkt, eindeutig und erblich in der anfänglichen Struktur von Verbindungen zwischen Neuronen verankert. In späteren Stadien wird dieser Zusammenhang komplizierter, die Lernfähigkeit zeigt sich. Das Bildgefühl ist nicht mehr starr mit dem Handlungsplan verbunden. Zunächst erfolgt seine Zwischenverarbeitung und der Vergleich mit den im Speicher abgelegten Bildern. Die Zwischenbildverarbeitung wird komplexer, wenn Sie die Evolutionsleiter nach oben bewegen. Am Ende bildet sich nach langer Entwicklung ein Prozess, den wir Denken nennen.

Zur Mustererkennung kann das Prinzip des „zellulären Automaten“ genutzt werden. Das System hat ein assoziatives Gedächtnis, wenn es, wenn ein bestimmtes Bild seinem Eingang zugeführt wird, automatisch das Bild auswählt und ausgibt, das ihm im Speicher am nächsten liegt.

Neuronale Netze sind eines der Forschungsgebiete im Bereich der künstlichen Intelligenz, basierend auf Versuchen, das menschliche Nervensystem nachzubilden. Nämlich: die Fähigkeit des Nervensystems zu lernen und Fehler zu korrigieren, was es uns ermöglichen sollte, wenn auch ziemlich grob, die Arbeit des menschlichen Gehirns zu modellieren.

oder das menschliche Nervensystem ist ein komplexes Netzwerk menschlicher Strukturen, das für das vernetzte Verhalten aller Körpersysteme sorgt.

Ein biologisches Neuron ist eine spezielle Zelle, die strukturell aus einem Zellkern, einem Zellkörper und Fortsätzen besteht. Eine der Hauptaufgaben eines Neurons besteht darin, einen elektrochemischen Impuls über verfügbare Verbindungen mit anderen Neuronen durch das neuronale Netzwerk zu übertragen. Darüber hinaus ist jede Verbindung durch einen bestimmten Wert gekennzeichnet, der als Stärke der synaptischen Verbindung bezeichnet wird. Dieser Wert bestimmt, was mit dem elektrochemischen Impuls passiert, wenn er auf ein anderes Neuron übertragen wird: entweder wird er stärker, oder er wird schwächer, oder er bleibt unverändert.

Ein biologisches neuronales Netzwerk hat einen hohen Grad an Konnektivität: Ein Neuron kann mehrere tausend Verbindungen mit anderen Neuronen haben. Dies ist jedoch ein ungefährer Wert und in jedem Fall unterschiedlich. Die Übertragung von Impulsen von einem Neuron zum anderen erzeugt eine gewisse Erregung des gesamten neuronalen Netzwerks. Die Größe dieser Erregung bestimmt die Reaktion des neuronalen Netzwerks auf einige Eingangssignale. Beispielsweise kann ein Treffen einer Person mit einem alten Bekannten zu einer starken Erregung des neuronalen Netzes führen, wenn mit diesem Bekannten einige lebhafte und angenehme Lebenserinnerungen verbunden sind. Eine starke Erregung des neuronalen Netzes wiederum kann zu einer Erhöhung der Herzfrequenz, häufigerem Augenzwinkern und anderen Reaktionen führen. Das Treffen mit einem Fremden für das neuronale Netzwerk wird fast nicht wahrnehmbar sein und daher keine starken Reaktionen hervorrufen.

Das folgende stark vereinfachte Modell eines biologischen neuronalen Netzes kann angegeben werden:

Jedes Neuron besteht aus einem Zellkörper, der einen Zellkern enthält. Viele kurze Fasern, sogenannte Dendriten, zweigen vom Zellkörper ab. Lange Dendriten werden Axone genannt. Die Axone sind über große Entfernungen gestreckt, weit über das hinaus, was in dieser Abbildung maßstabsgetreu dargestellt ist. Typischerweise sind Axone 1 cm lang (was dem 100-fachen Durchmesser des Zellkörpers entspricht), können aber bis zu 1 Meter lang werden.

In den 60-80er Jahren des 20. Jahrhunderts war die vorrangige Forschungsrichtung auf dem Gebiet der künstlichen Intelligenz. Expertensysteme haben sich bewährt, allerdings nur in hochspezialisierten Bereichen. Um vielseitigere intelligente Systeme zu schaffen, war ein anderer Ansatz erforderlich. Vielleicht hat dies Forscher der künstlichen Intelligenz dazu veranlasst, ihre Aufmerksamkeit auf die biologischen neuronalen Netzwerke zu richten, die dem menschlichen Gehirn zugrunde liegen.

Neuronale Netze in der künstlichen Intelligenz sind vereinfachte Modelle biologischer neuronaler Netze.

Hier endet die Ähnlichkeit. Der Aufbau des menschlichen Gehirns ist viel komplexer als der oben beschriebene, und daher ist es nicht möglich, ihn zumindest mehr oder weniger genau zu reproduzieren.

Neuronale Netze haben viele wichtige Eigenschaften, aber die wichtigste ist die Fähigkeit zu lernen. Das Training eines neuronalen Netzes besteht in erster Linie darin, die „Stärke“ synaptischer Verbindungen zwischen Neuronen zu verändern. Das folgende Beispiel zeigt dies deutlich. In Pawlows klassischem Experiment läutete jedes Mal eine Glocke, kurz bevor der Hund gefüttert wurde. Der Hund lernte schnell, das Läuten einer Glocke mit Fressen in Verbindung zu bringen. Dies lag daran, dass sich die synaptischen Verbindungen zwischen den für das Hören zuständigen Teilen des Gehirns und den Speicheldrüsen verstärkten. Und in der Folge begann die Erregung des neuronalen Netzes durch den Klang der Glocke zu einem stärkeren Speichelfluss beim Hund zu führen.

Neuronale Netze gehören heute zu den vorrangigen Forschungsgebieten im Bereich der künstlichen Intelligenz.