Neuronale Netze sind schwer nachvollziehbar (Black-Box)
- 19. August 2025
- Wolfgang Steinmaurer
- Neue Gedanken
Neuronale Netze werden oft als Black-Box bezeichnet, weil ihre interne Funktionsweise für Menschen schwer nachvollziehbar ist, selbst wenn man die mathematischen Grundlagen kennt.
Zitat von Sepp Hochreiter
"Ein ungelöstes Problem ist bis heute die Black-Box-Natur der neuronalen Netze“.
Automatisierung
Neuronale Netze sind sehr vielseitig. Sie sind in der Lage Gesichter auf Fotos zu erkennen, sie können Texte in Echtzeit übersetzen und sie können komplexe Datenmuster in Finanzmärkten analysieren.
Diese Erfolge basieren auf der Fähigkeit neuronaler Netze, generalisieren zu können. Doch die Generalisierung ist keine Selbstverständlichkeit.
Gerade im Bereich der Führung von Aufzeichnungen gibt es sehr viele Muster, die zu erkennen sind. Wenn das einmal geschehen ist, kann die richtige Verbuchung von Geschäftsfällen bestens automatisiert werden.
Das Buch
Hochreiter, Sepp, Was kann Künstliche Intelligenz? - Wird sie Wohlstand für alle schaffen, Krebs heilen und das Klimaproblem lösen?, ecoWing Verlag bei Benevento Publishing Salzburg-Wien, Wals bei Salzburg 2025.
finden