Flexible Informationsverarbeitung und -integration in modularen Netzwerken
Im Gegensatz zu Maschinen verfügen Netzwerke im Gehirn nur über begrenzte neuronale Ressourcen, und die Informationsverarbeitung wird durch die Biophysik von Synapsen und Neuronen eingeschränkt. Da das Gehirn von Säugetieren den zahlreichen Herausforderungen komplexer Umgebungen ausgesetzt ist, hat es Strategien entwickelt, um bestehende Netzwerke und Strukturen des Gehirns flexibel wiederzuverwenden und sich schnell an veränderte Rechenanforderungen anzupassen.
Wir wollen verstehen, wie diese Flexibilität erreicht wird und wie die Netzwerke gestaltet sein müssen, um diese Fähigkeit zu unterstützen.
Perceptrons flexibel machen!
Wir untersuchen zum Beispiel, wie man eine neue Klasse künstlicher neuronaler Netze („FlexiTrons“) so trainieren kann, dass sie sofort zwischen der Berechnung verschiedener boolescher Funktionen umschalten können. Diese Netze entwickeln Verbindungsstrukturen, die sowohl für Flexibilität als auch für Funktion optimiert sind. Durch die Einführung biophysikalischer Constraints haben wir einen Kompromiss zwischen Flexibilität und Robustheit entdeckt, der durch das hierarchische Verknüpfen mehrerer FlexiTron-Module nach Art der Verschaltung von Arealen im visuellen Kortex verbessert werden kann.
Routing durch Lawinen
Parallel dazu haben wir unsere Theorie über Spike-Lawinen in rekurrenten Netzwerken genutzt, um ein neues Schema für die selektive Weiterleitung visueller Informationen vorzuschlagen. Indem man die Synchronität in der neuronalen Repräsentation eines wahrgenommenen Reizes erhöht, kann man die Informationen, die an andere visuelle Bereiche weitergeleitet werden, um einen Faktor verstärken, der um ein Vielfaches höher ist als die damit verbundene Modulation der neuronalen Feuerungsraten, was eine elegante Erklärung für physiologische Daten liefert.