08.01.2025
„Künstliche Intelligenz ist mehr als ChatGPT“
Viele denken bei Künstlicher Intelligenz (KI) automatisch an Maschinelles Lernen. Aktuell dominieren Ansätze, die in riesigen Datenmengen Muster erkennen — nach diesem Prinzip funktioniert ChatGPT. Doch solche Systeme sind ungeeignet, wenn es darum geht, Probleme zu lösen, die ein tiefgreifendes Verständnis und komplexere Schlussfolgerungen erfordern. Das leisten sogenannte symbolische Verfahren in der KI. Wie genau diese funktionieren und warum es am Ende lohnenswert ist, beide Ansätze zu kombinieren, erläutert Professor Sebastian Rudolph von der TU Dresden und Konrad Zuse School of Excellence in Embedded Composite Artificial Intelligence (SECAI). SECAI wird durch den DAAD mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) gefördert.
Das Gebiet „Computational Logic“ befasst sich mit der Frage, wie sich logisches Schlussfolgern mathematisch beschreiben und mithilfe passender Algorithmen automatisieren lässt. Bei „Wissensrepräsentation“ geht es darum, das Wissen eines Gebietes formal zu strukturieren und in einem Computersystem zu hinterlegen. Dabei kann es sich um konkretes Faktenwissen, allgemeines Hintergrundwissen, operatives Wissen oder andere Formen handeln. Dieses Wissen wird dann automatisch kombiniert, um anspruchsvolle Aufgaben zu lösen, etwa die Beantwortung komplexer Anfragen oder Planungsprobleme. Logikbasierte Wissensrepräsentation fällt in den Bereich der symbolischen Künstlichen Intelligenz und findet in der Praxis breite Anwendung.
Seit dem großen Erfolg von ChatGPT wird Künstliche Intelligenz häufig mit Maschinellem Lernen gleichgesetzt. Ist das zu kurz gegriffen?Es stimmt, dass die öffentliche Wahrnehmung sich gerade stark auf Maschinelles Lernen konzentriert. Und das ist ja auch kein Wunder, schließlich sehen wir in den letzten Jahren eindrucksvolle Erfolge dieser sogenannten subsymbolischen Verfahren – gerade im Bereich Sprach- und Bildverarbeitung. Einige wenige Kollegen sind mittlerweile sogar der Meinung, dass die symbolischen Verfahren letztlich überflüssig werden. Die Mehrzahl ist aber der Ansicht, dass nur durch eine Integration beider Welten die jeweiligen Stärken miteinander kombiniert und die Schwächen ausgeglichen werden können. Auch ich bin überzeugt, dass Künstliche Intelligenz definitiv mehr ist als ChatGPT.
Können Sie ein Beispiel für die Stärken der sogenannten symbolischen Verfahren geben?Eine entscheidende Stärke aus meiner Sicht ist, dass man bei symbolischen Verfahren Garantien über deren Korrektheit und Zuverlässigkeit geben kann. In aller Regel ist es sogar möglich, mathematisch zu beweisen, dass ein symbolisches Verfahren die Aufgabe korrekt und innerhalb einer bestimmten Zeit löst. Dies ist von entscheidender Bedeutung, etwa für sicherheitskritische Anwendungen, beispielsweise wenn es um die automatisierte Planung von komplexen Abläufen in Industrieanlagen oder Kraftwerken geht. Bei subsymbolischen Verfahren sind solche Garantien deutlich schwerer zu geben. Und es ist ja bekannt, dass Sprachmodelle wie ChatGPT gern auch mal „halluzinieren“, sprich einfach Fakten erfinden, für die es keine reale Grundlage gibt.
Wie wichtig sind symbolische Verfahren bei der Entwicklung von sogenannter erklärbarer KI (Explainable AI)?Das Schlagwort „erklärbare KI“ ist aufgekommen, weil sich bei Urteilen oder Entscheidungen, die von KI-Systemen getroffen werden, häufig die Frage nach dem „Warum?“ anschließt. Gerade bei subsymbolischen KI-Modellen ist es oft sehr schwer, mit dem Resultat auch eine Begründung zu liefern, die für den menschlichen Nutzer nachvollziehbar ist. Symbolische Verfahren tun sich da leichter; hier können beispielsweise die zu einem Ergebnis führenden logischen Schlussfolgerungsketten in Einzelschritte zerlegt und als Erklärung zurückgeliefert werden.
Verstehe ich Sie richtig, dass es letztlich darum geht, die Stärken verschiedener KI-Methoden zu kombinieren? Das ist auch einer der Schwerpunkte der Konrad Zuse School of Excellence in Embedded Composite Artificial Intelligence (SECAI), an der Sie lehren.
Die Kombination symbolischer und subsymbolischer Methoden ist tatsächlich ein zentrales Anliegen von SECAI, wie das „composite“ im Namen auch deutlich machen soll. Es gibt eine Vielzahl von ähnlichen Begrifflichkeiten in der Fachwelt, zum Beispiel „neurosymbolic AI“ oder „bilateral AI“, was auch darauf hindeutet, dass die Notwendigkeit, die verschiedenen Ansätze zu integrieren, weithin erkannt worden ist. Häufig werden hier auch Parallelen zur Entscheidungsfindung beim Menschen gezogen: Symbolische Verfahren entsprechen dabei einer rationalen, „verkopften“ Bearbeitung eines Problems, während subsymbolische Methoden eher für eine intuitive, vom „Bauchgefühl“ geleitete Herangehensweise stehen. Für künstliche wie für natürliche Akteure gilt hier wohl: Die Mischung macht’s!
Die besten Algorithmen sind wertlos, wenn die Hardware fehlt, auf der sie ihre Wirkung entfalten können. Wie gelingt der Schritt in die Anwendung?Dass die Hardware-Seite – darauf bezieht sich „embedded“ im Titel – mit in den Blick genommen wird, ist ein Alleinstellungsmerkmal der Zuse-School SECAI. Es ergibt sich organisch aus der fachlichen Exzellenz der beteiligten Universitäten in diesem Bereich und dem besonderen Gewicht des Standorts „Silicon Saxony“ für die deutsche und europäische Chipproduktion. Ganz allgemein erfordert der steigende Bedarf an zeit-, platz- und auch energieeffizienten KI-Systemen Weiterentwicklungen im Hardwarebereich. Diese reichen von neuartigen Schaltelementen auf der Nano-Ebene bis hin zu innovativen Großrechenanlagen, in denen immer mehr Daten und Prozesse parallel verarbeitet werden können. SECAI deckt hier die gesamte Bandbreite ab.
Die Entwicklung im Bereich KI verläuft hochdynamisch. Das macht die Ausbildung sicher recht anspruchsvoll. Gibt es so etwas wie Kernkompetenzen, die man den Studierenden vermitteln kann – unabhängig von Details, die sich ja gerade sehr schnell ändern?Alle Richtungen der KI erfordern solide mathematische Grundlagen – bei symbolischen Verfahren ist das eher die diskrete Mathematik, bei den subsymbolischen kommen Vektoralgebra und -analysis zum Einsatz. In beiden Fällen sind auch Wahrscheinlichkeitsrechnung und Statistik sehr wichtig. Dazu kommen Grundlagen der Berechenbarkeits- und Komplexitätstheorie sowie Algorithmik. Mit diesem im Grundstudium bereitgestellten fachlichen Rüstzeug sind die stark und häufig wechselnden Ansätze und Optimierungen bei KI-Verfahren eigentlich gut und schnell zu verstehen. Diese werden dann durch Spezialveranstaltungen vertieft.
Interview: Klaus Lüber (3. Dezember 2024)
Über Prof. Sebastian Rudolph
Sebastian Rudolph ist seit April 2013 Professor für Computational Logic an der Technischen Universität Dresden. Er ist zudem geschäftsführender Direktor des Instituts für Künstliche Intelligenz an der Fakultät Informatik. Darüber hinaus ist Rudolph Mitglied der Steuerungsgruppe der Konrad Zuse School of Excellence in Embedded Composite Artificial Intelligence (SECAI). Im Rahmen eines ERC Grants forscht Sebastian Rudolph zum Thema Entscheidbarkeit in der Wissensrepräsentation.
[Zitiert aus Pressemitteilung des DAAD; „Künstliche Intelligenz ist mehr als ChatGPT“]