Detailseite
Spiking Neuronale Netze auf Basis unkonventioneller Nanobauteile zur Erkennung von akustischen Ereignissen
Antragsteller
Professor Dr.-Ing. Stefan E. Schulz
Fachliche Zuordnung
Elektronische Halbleiter, Bauelemente und Schaltungen, Integrierte Systeme, Sensorik, Theoretische Elektrotechnik
Förderung
Förderung seit 2024
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 545923700
Es soll ein selbstlernendes künstliches neuronales Netz in Hardware implementiert werden, um Ereignisse in akustischen Signalen energiesparend zu detektieren. Um eine energieintensive Analog-Digital-Wandlung zu vermeiden, werden große Teile der Signalverarbeitung mit analoger Hardware durchgeführt. Eine dynamische analoge Filterbank, die von der menschlichen Cochlea inspiriert ist, extrahiert spektrale Merkmale. Dabei werden je nach Anwendung relevante Frequenzbänder akzentuiert und überflüssige Filter ausgespart. Die Ausgänge der analogen Filter werden in Impulsraten umgewandelt und an ein „Spiking Neural Network“ (SNN) weitergeleitet. Das SNN besteht aus vier bis sechs Schichten, jeweils mit bis zu 128 Neuronen. Synaptische Verknüpfungen zwischen neuronalen Schichten werden durch sogenannte „Crossbar Arrays“ (CBAs) aus BFO-Grenzflächen-Memristoren realisiert. Durch geeignete Spike-Impulsformen werden anhand der Memristoren lokale Lernverfahren wie „Spike-Timing-Dependent Plasticity“ (STDP) emuliert, wobei die flüchtige Charakteristik von Grenzflächen-Memristoren als synaptische Vergessensrate berücksichtigt wird. Es wird untersucht, wie sich verschiedene Entwurfsparameter wie die Spike-Impulsform und eine Titandotierung der BFO-Schicht auf die memristive Lernfunktion auswirken. Das SNN wird durch heterogene Integration der synaptischen CBAs mit CMOS-basierten „Leaky Integrate-and-Fire“ (LIF) Neuronen aufgebaut. In der ersten Iteration werden die Chips durch eine „Chip-to-Board“-Integration kombiniert, um eine flexible Verschaltung zu ermöglichen. Um das System zu miniaturisieren, werden in der zweiten Iteration synaptische CBAs und CMOS-Neuronen mittels „Chip-to-Wafer“-Integration aufeinandergestapelt. Die Echtzeitverarbeitung von akustischen Signalen in SNNs erfordert ein präzises Timing in den neuronalen Schaltungen. Um lange Zeitkonstanten zu ermöglichen, werden verschiedene Techniken untersucht, darunter abstimmbare Transkonduktanzverstärker, digitale Zähler und flüchtige Memristoren. Das angestrebte Anwendungsszenario des entwickelten Systems sind selbstlernende, biologisch inspirierte Sensorsysteme für mobile Applikationen. Der Demonstrator, der im Rahmen des Projekts realisiert wird, soll im speziellen für die Schlüsselworterkennung getestet werden und hinsichtlich des Energiebedarfs bewertet werden. Darüber hinaus werden im Rahmen des Projektes erste Untersuchungen mit lichtempfindlichen BFO-CBAs durchgeführt. Diese sollen Aufschluss über mögliche Anwendungen des entwickelten Systems mit visuellen Eingangsreizen geben.
DFG-Verfahren
Sachbeihilfen
Internationaler Bezug
Frankreich
Partnerorganisation
Agence Nationale de la Recherche / The French National Research Agency
Kooperationspartner
Professor Wenceslas Rahajandraibe