Detailseite
Projekt Druckansicht

Spiking Neuronale Netze auf Basis unkonventioneller Nanobauteile zur Erkennung von akustischen Ereignissen

Fachliche Zuordnung Elektronische Halbleiter, Bauelemente und Schaltungen, Integrierte Systeme, Sensorik, Theoretische Elektrotechnik
Förderung Förderung seit 2024
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 545923700
 
Es soll ein selbstlernendes künstliches neuronales Netz in Hardware implementiert werden, um Ereignisse in akustischen Signalen energiesparend zu detektieren. Um eine energieintensive Analog-Digital-Wandlung zu vermeiden, werden große Teile der Signalverarbeitung mit analoger Hardware durchgeführt. Eine dynamische analoge Filterbank, die von der menschlichen Cochlea inspiriert ist, extrahiert spektrale Merkmale. Dabei werden je nach Anwendung relevante Frequenzbänder akzentuiert und überflüssige Filter ausgespart. Die Ausgänge der analogen Filter werden in Impulsraten umgewandelt und an ein „Spiking Neural Network“ (SNN) weitergeleitet. Das SNN besteht aus vier bis sechs Schichten, jeweils mit bis zu 128 Neuronen. Synaptische Verknüpfungen zwischen neuronalen Schichten werden durch sogenannte „Crossbar Arrays“ (CBAs) aus BFO-Grenzflächen-Memristoren realisiert. Durch geeignete Spike-Impulsformen werden anhand der Memristoren lokale Lernverfahren wie „Spike-Timing-Dependent Plasticity“ (STDP) emuliert, wobei die flüchtige Charakteristik von Grenzflächen-Memristoren als synaptische Vergessensrate berücksichtigt wird. Es wird untersucht, wie sich verschiedene Entwurfsparameter wie die Spike-Impulsform und eine Titandotierung der BFO-Schicht auf die memristive Lernfunktion auswirken. Das SNN wird durch heterogene Integration der synaptischen CBAs mit CMOS-basierten „Leaky Integrate-and-Fire“ (LIF) Neuronen aufgebaut. In der ersten Iteration werden die Chips durch eine „Chip-to-Board“-Integration kombiniert, um eine flexible Verschaltung zu ermöglichen. Um das System zu miniaturisieren, werden in der zweiten Iteration synaptische CBAs und CMOS-Neuronen mittels „Chip-to-Wafer“-Integration aufeinandergestapelt. Die Echtzeitverarbeitung von akustischen Signalen in SNNs erfordert ein präzises Timing in den neuronalen Schaltungen. Um lange Zeitkonstanten zu ermöglichen, werden verschiedene Techniken untersucht, darunter abstimmbare Transkonduktanzverstärker, digitale Zähler und flüchtige Memristoren. Das angestrebte Anwendungsszenario des entwickelten Systems sind selbstlernende, biologisch inspirierte Sensorsysteme für mobile Applikationen. Der Demonstrator, der im Rahmen des Projekts realisiert wird, soll im speziellen für die Schlüsselworterkennung getestet werden und hinsichtlich des Energiebedarfs bewertet werden. Darüber hinaus werden im Rahmen des Projektes erste Untersuchungen mit lichtempfindlichen BFO-CBAs durchgeführt. Diese sollen Aufschluss über mögliche Anwendungen des entwickelten Systems mit visuellen Eingangsreizen geben.
DFG-Verfahren Sachbeihilfen
Internationaler Bezug Frankreich
Kooperationspartner Professor Wenceslas Rahajandraibe
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung