Press "Enter" to skip to content

MIT-Neurowissenschaftler identifizieren „Landmark Code“ im Gehirn, der uns beim Navigieren hilft

Brain Landmark Code

MIT-Neurowissenschaftler haben einen „Meilensteincode“ identifiziert, der dem Gehirn hilft, in unserer Umgebung zu navigieren. Bildnachweis: Christine Daniloff, MIT

Neurowissenschaftler entdecken, wie eine wichtige Gehirnregion visuelle und räumliche Informationen kombiniert, um unseren Weg zu finden.

Wenn wir uns durch die Straßen unserer Nachbarschaft bewegen, verwenden wir oft bekannte Orientierungspunkte, um uns beim Navigieren zu helfen. Und während wir uns denken: „OK, biegen Sie jetzt im Café links ab“, leuchtet ein Teil des Gehirns auf, der als retrosplenialer Kortex (RSC) bezeichnet wird.

Während viele Studien diese Gehirnregion mit der Orientierungspunktnavigation verknüpft haben, ist nicht genau bekannt, wie sie uns hilft, unseren Weg zu finden. Eine neue Studie von MIT Neurowissenschaftler zeigen nun, wie Neuronen im RSC sowohl visuelle als auch räumliche Informationen verwenden, um bestimmte Orientierungspunkte zu codieren.

“Einige dieser Signale – visuelle Eingaben und Körperbewegungen – werden synthetisiert, um Konzepte wie Orientierungspunkte darzustellen”, sagt Mark Harnett, Assistenzprofessor für Gehirn- und Kognitionswissenschaften und Mitglied des McGovern Institute for Brain Research des MIT. “Was wir in dieser Studie angestrebt haben, ist die Darstellung dieser verschiedenen Aspekte der räumlichen Navigation auf Neuronen- und Bevölkerungsebene.”

In einer Studie an Mäusen stellten die Forscher fest, dass diese Gehirnregion einen „Orientierungspunktcode“ erzeugt, indem sie visuelle Informationen über die Umgebung mit räumlicher Rückmeldung der eigenen Position der Mäuse entlang einer Spur kombiniert. Durch die Integration dieser beiden Informationsquellen konnten die Mäuse anhand der von ihnen gesehenen Orientierungspunkte lernen, wo sie eine Belohnung finden konnten.

„Wir glauben, dass dieser Code, den wir gefunden haben, der wirklich an die Orientierungspunkte gebunden ist und den Tieren auch die Möglichkeit gibt, zwischen Orientierungspunkten zu unterscheiden, dazu beiträgt, dass die Tiere diese Orientierungspunkte verwenden können, um Belohnungen zu finden“, sagt Lukas Fischer, ein MIT Postdoc und Hauptautor der Studie.

Harnett ist der leitende Autor der Studie, die heute in der Zeitschrift erscheint eLife. Weitere Autoren sind die Doktorandin Raul Mojica Soto-Albors und die jüngste MIT-Absolventin Friederike Buck.

Landmarken kodieren

Frühere Studien haben gezeigt, dass Menschen mit Schäden am RSC Schwierigkeiten haben, sich von einem Ort zum anderen zurechtzufinden, obwohl sie ihre Umgebung immer noch erkennen können. Der RSC ist auch einer der ersten betroffenen Bereiche Alzheimer Patienten, die oft Schwierigkeiten beim Navigieren haben.

Der RSC ist zwischen dem primären visuellen Kortex und dem motorischen Kortex eingeklemmt und erhält Eingaben von beiden Bereichen. Es scheint auch an der Kombination von zwei Arten von Raumdarstellungen beteiligt zu sein – allozentrisch, dh die Beziehung von Objekten zueinander, und egozentrisch, dh die Beziehung von Objekten zum Betrachter.

“Die Beweise deuten darauf hin, dass RSC wirklich ein Ort ist, an dem diese verschiedenen Referenzrahmen verschmelzen”, sagt Harnett. “Die Dinge sehen anders aus, wenn ich mich im Raum bewege, aber das liegt daran, dass sich mein Blickwinkel geändert hat. Sie ändern sich nicht in Bezug aufeinander. “

In dieser Studie untersuchte das MIT-Team das Verhalten einzelner RSC-Neuronen in Mäusen, einschließlich der Integration mehrerer Eingaben, die bei der Navigation helfen. Zu diesem Zweck haben sie eine Virtual-Reality-Umgebung für die Mäuse erstellt, indem sie auf einem Laufband laufen konnten, während sie einen Videobildschirm betrachteten, auf dem der Eindruck entsteht, dass sie entlang einer Spur laufen. Die Geschwindigkeit des Videos hängt davon ab, wie schnell die Mäuse laufen.

An bestimmten Punkten entlang der Strecke werden Orientierungspunkte angezeigt, die darauf hinweisen, dass eine Belohnung in einer bestimmten Entfernung hinter dem Orientierungspunkt verfügbar ist. Die Mäuse mussten lernen, zwischen zwei verschiedenen Orientierungspunkten zu unterscheiden und zu lernen, wie weit sie über jeden hinaus rennen mussten, um die Belohnung zu erhalten.

Sobald die Mäuse die Aufgabe gelernt hatten, zeichneten die Forscher die neuronale Aktivität im RSC auf, während die Tiere entlang der virtuellen Spur liefen. Sie konnten von einigen hundert Neuronen gleichzeitig aufnehmen und stellten fest, dass die meisten von ihnen ihre Aktivität an einem bestimmten Aspekt der Aufgabe verankerten.

Es gab drei primäre Verankerungspunkte: den Beginn des Versuchs, den Orientierungspunkt und den Belohnungspunkt. Die Mehrheit der Neuronen war an den Landmarken verankert, was bedeutet, dass ihre Aktivität an einem bestimmten Punkt relativ zur Landmarke, beispielsweise 50 Zentimeter davor oder 20 Zentimeter danach, konstant ihren Höhepunkt erreicht.

Die meisten dieser Neuronen reagierten auf beide Orientierungspunkte, aber eine kleine Untergruppe reagierte nur auf das eine oder andere. Die Forscher nehmen an, dass diese stark selektiven Neuronen den Mäusen helfen, zwischen den Orientierungspunkten zu unterscheiden und die richtige Distanz zu laufen, um die Belohnung zu erhalten.

Als die Forscher die Optogenetik (ein Werkzeug, das die Neuronenaktivität ausschalten kann) verwendeten, um die Aktivität im RSC zu blockieren, wurde die Leistung der Mäuse bei dieser Aufgabe viel schlechter.

Eingaben kombinieren

Die Forscher führten auch ein Experiment durch, bei dem die Mäuse wählen konnten, ob sie laufen oder nicht, während das Video mit konstanter Geschwindigkeit abgespielt wurde, unabhängig von der Bewegung der Mäuse. Die Mäuse konnten die Orientierungspunkte immer noch sehen, aber die Position der Orientierungspunkte war nicht mehr mit einer Belohnung oder dem eigenen Verhalten der Tiere verbunden. In dieser Situation reagierten RSC-Neuronen auf die Orientierungspunkte, jedoch nicht so stark wie bei der Verwendung durch die Mäuse zur Navigation.

Weitere Experimente ermöglichten es den Forschern herauszufinden, wie viel Neuronenaktivierung durch visuelle Eingaben (Sehen der Landmarken) und durch Rückmeldung über die Bewegung der Maus erzeugt wird. Das einfache Addieren dieser beiden Zahlen ergab jedoch Summen, die viel niedriger waren als die Neuronenaktivität, die beobachtet wurde, als die Mäuse aktiv auf der Spur navigierten.

„Wir glauben, dass dies ein Beweis für einen Mechanismus der nichtlinearen Integration dieser Eingaben ist, bei dem sie so kombiniert werden, dass eine größere Reaktion erzielt wird als wenn Sie diese beiden Eingaben nur linear addieren würden“, sagt Fischer.

Die Forscher planen nun, Daten zu analysieren, die sie bereits gesammelt haben, wie sich die Neuronenaktivität im Laufe der Zeit entwickelt, wenn die Mäuse die Aufgabe lernen. Sie hoffen auch, weitere Experimente durchführen zu können, bei denen sie versuchen könnten, visuelle und räumliche Eingaben an verschiedenen Orten innerhalb von RSC-Neuronen getrennt zu messen.

Die Forschung wurde von den National Institutes of Health, dem McGovern Institute, dem NEC Corporation Fund für Computer- und Kommunikationsforschung am MIT und dem Klingenstein-Simons-Stipendium für Neurowissenschaften finanziert.