Intelligente Systeme wie das menschliche Gehirn verarbeiten Informationen sowohl auf einer sensorischen subsymbolischen Ebene, als auch auf einer abstrakteren diskreten symbolischen Ebene. Beide Ebenen wechselwirken miteinander: Aus subsymbolischen Quellen wird abstraktes Wissen extrahiert und abstraktes a priori Wissen ist notwendig, um Sensordaten zu analysieren und zu verstehen. Diese Dichotomie findet man in der Kognition (sensorische Daten versus Perzeption), in der Analyse von unstrukturierten Informationen (Informationsextraktion aus Texten, Bildern und Videos), wie auch in industriellen Anwendungen (Signale, Sensorik, Service-Berichte, Log-Files versus strukturierte Datenbanken).
Maschinelles Lernen (ML), im besonderen Deep Learning, hat seine Stärken primär in der Analyse unstrukturierter Daten (Bilder, Videos, Texte, Sensordaten). Typischerweise werden unstrukturierte Daten in sehr einfache diskrete Aussagen („Auf dem Bild ist eine Katze“) transformiert. Während im ML die sensorische Ebene zunehmend reichhaltiger wird, bleibt die strukturierte Seite eher stark vereinfacht. Dies hat mehrere Gründe: Einmal ist die Extraktion von komplexerer symbolischer Information aus Sensordaten ungleich schwieriger, und zweitens gab es für reichhaltige symbolische Domänen, trotz einiger Anstrengungen, bisher keine leistungsfähigen und skalierbaren ML-Algorithmen. Erfreulicherweise beginnt sich die Situation zu ändern.
Zunächst sind auf symbolischer Ebene umfangreiche Wissensgraphen (Knowledge Graphs, KGs) entstanden, die sich zunehmend als Repräsentation von strukturiertem Wissen durchsetzen. KGs haben ihre Wurzeln im Forschungsgebiet „Wissensrepräsentation“, speziell dem „Semantischen Web“, und zeichnen sich durch Skalierbarkeit, Verständlichkeit, leichte Vernetzbarkeit mit anderen Wissensgraphen und Pflegbarkeit aus. Das bekannteste Beispiel ist der Google KG (GKG) mit über 100 Milliarden Fakten, der in Question-Answering (QA), sowie in Suche und Textanalyse Anwendung findet [Sing12]. Aufgrund dieser positiven Eigenschaften finden KGs auch zunehmend Anwendung in der Industrie und anderen Domänen, wie z. B. im Gesundheitswesen.
Im Gegensatz zu vorangegangen Anstrengungen zum Lernen in strukturierten Daten, sind für KGs leistungsfähige Lernalgorithmen entwickelt worden. [Tresp05] gibt einen Überblick über relationale Lernverfahren für KGs. Lernfähige KGs können auf neue Fakten generalisieren und liefern Repräsentationen für Entitäten und Prädikate; beides kann als Basis für Informationsaustausch mit subsymbolischen Repräsentationen dienen. [Dong14] und [Tresp11] sind zwei Beispiele in denen das a priori Wissen in KGs erfolgreich zum „Lesen des Webs“ beziehungsweise zur Informationsextraktion aus Bildern verwendet wurde. Parallel dazu wurden in [Cremers01] konvexe Optimierungsverfahren entwickelt, mit denen sich a priori Wissen in die semantische Bildanalyse integrieren lässt. Insbesondere basiert [Cremers02] auf einer hierarchischen Szenenrepräsentation in Form eines Graphen, die in statistischer optimaler Weise direkt aus den Bilddaten geschätzt wird.
Eine besonders interessante Perspektive ergibt sich aus der Möglichkeit, dass sich auf Basis von Hintergrundwissen und unstrukturierten Informationen in Kombination mit modernen Techniken des Deep Learnings prädiktive Systeme entwickeln lassen, die eine lernende Entscheidungsunterstützung realisieren. In [Tresp12] wurde ein erstes entsprechendes klinisches Entscheidungsunterstützungssystem vorgestellt. Ein semantischer KG steht z. B. für das Hintergrundwissen über einen Patienten, ein episodischer KG beschreibt Prozeduren, Analysen und Diagnosen, und subsymbolisches Wissen besteht aus radiologischen Bildern, Genprofilen und unstrukturierten Arztbriefen.