Leistungseffiziente Deep Neural Networks basierend auf der Co-Optimierung mit Mixed-Signal Integrierten Schaltungen
EdgeAI ist das verteilte Computing-Paradigma für die Ausführung von Machine-Learning-Algorithmen in der Nähe des Sensors. Im Vergleich zu zentralisierten, z. B. Cloud-basierten Lösungen werden Datensicherheit, niedrige Latenzzeiten und geringere Bandbreiten erreicht. Gleichzeitig besteht das große Problem, dass der Stromverbrauch der heutigen tiefen neuronalen Netze (die häufigste Art von Machine-Learning-Algorithmen) für solche Anwendungen viel zu hoch ist. Moderne Netzwerkarchitekturen sind komplex und stellen hohe Anforderungen an die Rechenressourcen. Dieses Problem wird auf zwei Arten angegangen.
Erstens kann der Rechenaufwand des neuronalen Netzes durch Beschneidung oder Quantisierung von Operanden reduziert werden. Dies wird gemeinhin als Netzkompression bezeichnet.
Eine zweite Möglichkeit, den Einsatz von KI-Algorithmen am Edge zu ermöglichen, ist der Einsatz spezialisierter Beschleuniger (Prozessoren), um ein häufiges Problem zu lösen: KI-Algorithmen erfordern in der Regel die Übertragung großer Datenmengen zwischen Speicher und Berechnung. Dieses Problem wird als von-Neumann-Engpass bezeichnet. Die Lösung besteht darin, die Rechen- und Speicherelemente innerhalb der Architektur des Beschleunigers zu verteilen und zu mischen.
In diesem Projekt werden verschiedene Aspekte untersucht, bei denen die Optimierung von Hardware und Algorithmus als gemeinsames Problem behandelt werden muss. Die betrachteten Hardware-Plattformen sind Mixed-Signal-Beschleuniger, die analoge Größen (Ladung, Spannung, Strom) zur Darstellung von Operanden innerhalb einer AI-Berechnung verwenden.
Ein Beispiel für ein solches Problem sind analoge Nichtlinearitäten innerhalb der Mixed-Signal-Rechenschaltungen. Sie können durch eine Verbesserung der Schaltung bekämpft werden, was jedoch immer mit Nachteilen bei Leistung, Fläche und/oder Geschwindigkeit verbunden ist. Die Nichtlinearitäten können jedoch einfach modelliert und beim Training eines neuronalen Netzes auch in Quantisierern hinzugefügt werden, anstatt sie auf Schaltungsebene zu kompensieren.
Zukünftige Arbeiten in diesem Projekt werden weitere Regeln für das Co-Design von Hardware (Mixed-Signal-Beschleuniger) und Software (neuronales Netzwerk) ableiten, um neue Möglichkeiten für den Einsatz von KI-Algorithmen am Ende zu eröffnen.
Publikationen
- Conrad, J.; Wilhelmstätter, S.; Asthana, R.; Belagiannis, V.; Ortmanns, M.
Differentiable Cost Model for Neural-Network Accelerator Regarding Memory Hierarchy
IEEE Transactions on Circuits and Systems I: Regular Papers ( Early Access )
Oktober 2024
DOI: 10.1109/TCSI.2024.3476534
- Conrad, J.; Kauffman, J. G.; Wilhelmstätter, S.; Asthana, R.; Belagiannis, V.; Ortmanns, M.
Confidence Estimation and Boosting for Dynamic-Comparator Transient-Noise Analysis
22nd IEEE Interregional NEWCAS Conference (NEWCAS)
September 2024
DOI: 10.1109/NewCAS58973.2024.10666354
- Conrad, J.; Jiang, B.; Kässer, P.; Belagiannis, V.; Ortmanns, M.
Nonlinearity Modeling for Mixed-Signal Inference Accelerators in Training Frameworks
28th IEEE International Conference on Electronics, Circuits, and Systems (ICECS), Dubai, UAE, 2021, pp. 1-4
DOI: 10.1109/ICECS53924.2021.9665503
- Conrad, J.; Wilhelmstätter, S.; Asthana, R.; Belagiannis, V.; Ortmanns, M.
Too-Hot-to-Handle: Insights into Temperature and Noise Hyperparameters for Differentiable Neural-Architecture-Searches
6th IEEE International Conference on Artificial Intelligence Circuits and Systems (AICAS), Abu-Dhabi, UAE, 2024, pp. 557-561
DOI: 10.1109/AICAS59952.2024.10595971
Dieses Projekt wird durch die Deutsch Forschungsgesellschaft (DFG) unter Projektnummer BE 7212/7-1 | OR 245/19-1 gefördert.
Projektpartner sind Prof. Dr. Vasileios Belagiannis und M.Sc. Rohan Asthana vom Lehrstuhl für Multimediakommunikation und Signalverarbeitung an der Friedrich-Alexander-Universität Erlangen-Nürnberg.