Veröffentlicht am

Der Weg zur allgemeinen KI: Eine historische und technische Perspektive

12 min read
Autoren
  • Profile picture of aithemes.net
    Name
    aithemes.net
    Twitter
Post image

Künstliche Intelligenz fesselt die menschliche Vorstellungskraft seit Jahrzehnten. Die grundlegende Idee dreht sich darum, Maschinen zu schaffen, die in der Lage sind, Intelligenz zu zeigen. Aber was genau bedeutet „intelligent“ in diesem Zusammenhang? Im Kern geht es bei KI darum, Systeme zu bauen, deren Handlungen erwartungsgemäß ihre vordefinierten Ziele erreichen. Diese Definition ist nicht neu; sie stützt sich auf Tausende von Jahren philosophischen und ökonomischen Denkens über rationales Handeln und Entscheiden.

Von AlphaGos strategischer Meisterschaft im Go-Spiel, bei dem das Ziel einfach darin besteht zu gewinnen, über Navigationssoftware, die die kürzeste Route anstrebt, bis hin zu vollautomatisierten Unternehmen, die darauf ausgelegt sind, den Shareholder-Return zu maximieren – dieses Kernprinzip des zielgerichteten Handelns untermauert vielfältige KI-Anwendungen. Das Feld der KI hegt jedoch ein noch ehrgeizigeres Ziel: die Schaffung von allgemeiner KI, oft als künstliche allgemeine Intelligenz (AGI) bezeichnet. Das Ziel von AGI ist es, Systeme zu entwickeln, die in der Lage sind, jede Aufgabe auf oder über menschlichem Niveau zu lernen und auszuführen und somit menschliche Fähigkeiten in allen relevanten Dimensionen effektiv zu übertreffen. Dieser Beitrag befasst sich mit den historischen Versuchen und technischen Ansätzen, die bei dieser großen Suche nach AGI eingesetzt wurden.

Was ist künstliche Intelligenz? Definition des Kernkonzepts

Auf ihrer grundlegendsten Ebene ist künstliche Intelligenz das Bestreben, intelligente Maschinen zu konstruieren. Die Definition von Intelligenz in diesem Kontext ist seit den Anfängen des Fachgebiets konsistent: Eine Maschine wird in dem Maße als intelligent betrachtet, in dem ihre Handlungen wahrscheinlich dazu beitragen, ihre festgelegten Ziele zu erreichen. Diese pragmatische, zielorientierte Perspektive auf Intelligenz stimmt eng mit der Art und Weise überein, wie wir menschliche Rationalität und Entscheidungsfindung bewerten, und leiht sich Erkenntnisse aus langjährigen philosophischen und ökonomischen Traditionen.

Betrachten wir einige anschauliche Beispiele:

  • AlphaGo: Entwickelt von DeepMind, wurde AlphaGo entworfen, um das komplexe Brettspiel Go zu spielen. Sein einziges Ziel war es, das Spiel gegen menschliche oder andere Computergegner zu gewinnen. Durch ausgefeilte Algorithmen und umfangreiches Training erzielte es bemerkenswerte Erfolge und demonstrierte Intelligenz im engen Rahmen dieser spezifischen Aufgabe.
  • Navigationssoftware: Anwendungen wie Google Maps oder spezielle Autonavigationssysteme haben das Ziel, die effizienteste Route (kürzeste Zeit, kürzeste Entfernung usw.) zwischen zwei Punkten zu finden, wobei sie reale Straßennetze navigieren und Verkehr sowie andere Bedingungen berücksichtigen.
  • Automatisierte Unternehmen: Ein aufkommendes Konzept beinhaltet die Schaffung vollständig automatisierter Entitäten, deren primäres, oft rechtlich definiertes Ziel darin besteht, den erwarteten Shareholder-Return zu maximieren. Ein solches System würde autonom Geschäftsentscheidungen treffen, Ressourcen verwalten und mit dem Markt interagieren, basierend ausschließlich auf diesem treibenden Ziel.

Diese Beispiele verdeutlichen die allgemeine Anwendbarkeit der Definition: Intelligentes Handeln ist Handeln, das auf das Erreichen eines Ziels ausgerichtet ist. Dieses Rahmenwerk bietet eine leistungsstarke Linse, durch die KI-Systeme in verschiedenen Bereichen entworfen und bewertet werden können.

Das ehrgeizige Ziel: Künstliche Allgemeine Intelligenz (AGI)

Während domänenspezifische KI-Systeme wie die oben genannten alltäglich geworden sind, ist das wahre, langjährige Bestreben des KI-Feldes die Schaffung von künstlicher allgemeiner Intelligenz (AGI). Im Gegensatz zu enger KI, die für eine spezifische Aufgabe (wie Go spielen oder Bilder erkennen) entworfen und trainiert wird, zielt AGI auf Vielseitigkeit ab.

Das Ziel von AGI ist es, KI-Systeme zu bauen, die:

  1. Schnell lernen können: Neue Informationen und Fähigkeiten effizient aufnehmen.
  2. Hochwertiges Verhalten zeigen: Aufgaben genauso gut oder besser als Menschen ausführen.
  3. Sich an jede Aufgabe anpassen können: Ihr Lernen und ihre Intelligenz auf eine breite Palette unterschiedlicher Probleme und Umgebungen anwenden, ohne für jede neue Herausforderung explizit neu programmiert werden zu müssen.

Im Wesentlichen versucht AGI, die kognitive Flexibilität und Lernfähigkeit eines menschlichen Geistes zu replizieren oder zu übertreffen, nicht nur seine Fähigkeit in einer einzelnen Fertigkeit. Dieses Niveau allgemeiner Intelligenz stellt einen signifikanten Sprung über die aktuellen KI-Fähigkeiten hinaus dar und ist die ultimative Grenze für viele Forscher auf diesem Gebiet.

Eine Reise durch die KI-Geschichte: Ansätze und Entwicklung

Die Suche nach intelligenten Maschinen hat seit ihrer formellen Gründung viele Wendungen genommen. Die Geschichte der KI lässt sich grob nach den dominanten Paradigmen und technologischen Fähigkeiten der jeweiligen Zeit kategorisieren.

Die frühen Jahre (1950er-1970er): Erkundung und symbolisches Schließen

Als Geburtsort der KI wird oft der Dartmouth Workshop von 1956 genannt. In diesen Anfangsjahren erkundeten Forscher im Wesentlichen Möglichkeiten mit begrenzter Rechenleistung und theoretischem Verständnis. Diese Periode könnte als „Schau mal, ohne Hände!“-Phase charakterisiert werden – ehrgeizige Dinge ausprobieren ohne einen klaren Fahrplan.

Zwei Schlüsselansätze entstanden:

  1. Symbolische KI: Dieses Paradigma konzentrierte sich darauf, Wissen mithilfe von Symbolen (wie Wörtern oder logischen Prädikaten) darzustellen und diese Symbole nach logischen Regeln zu manipulieren. Die Idee war, Systeme zu bauen, die durch die Simulation logischer Denkprozesse schlussfolgern und Probleme lösen können.
  2. Frühes maschinelles Lernen: Neben symbolischen Methoden wurden grundlegende Konzepte des maschinellen Lernens erforscht, wie z. B. Perzeptrone. Dies waren einfache künstliche Neuronen, Vorläufer der massiven neuronalen Netze, die wir heute sehen.

Gleichzeitig experimentierten einige Forscher mit evolutionären Ansätzen. Mit frühen Programmiersprachen wie Fortran erstellten sie Programme, mutierten sie und kombinierten sie in der Hoffnung, dass sich im Laufe der Zeit „intelligente“ Programme entwickeln würden, die die biologische Evolution nachahmen. Obwohl konzeptionell interessant, wurden diese frühen evolutionären Versuche durch die unglaublich begrenzten Rechenressourcen der damaligen Zeit stark behindert – Millionen von Millionen von Millionen Mal weniger Leistung als heutige Systeme. Folglich führten diese Experimente nicht zu signifikanten Ergebnissen, sodass das Potenzial dieses Ansatzes mit moderner Rechenleistung eine offene, wenn auch derzeit unerforschte Frage bleibt.

Die Ingenieursdisziplin entsteht (1970er-2010er): Logik, Wahrscheinlichkeit und Wissenssysteme

Von den 1970er Jahren bis Anfang der 2010er Jahre verfolgte die KI-Entwicklung einen strukturierteren Ingenieursansatz. Die Werkzeuge der Wahl waren etablierte mathematische und statistische Disziplinen: Logik für das Schließen, Wahrscheinlichkeit und Statistik für den Umgang mit Unsicherheit und das Lernen aus Daten sowie Optimierung für die Suche nach den besten Lösungen.

In dieser Ära entstanden wissensbasierte Systeme. Diese Systeme wurden entwickelt, um menschliches Expertenwissen in ein Computerprogramm einzubetten, sodass es innerhalb eines bestimmten Bereichs schlussfolgern und Probleme lösen konnte.

Eine bedeutende Entwicklung in dieser Zeit war der Boom der Expertensysteme in den späten 1970er und frühen 1980er Jahren. Unternehmen investierten stark in dem Glauben, dass diese mit Expertenwissen gefüllten Systeme eine breite Palette von Geschäftsproblemen lösen könnten, die Fachwissen erfordern. Diese Technologie erwies sich jedoch als zu starr und „spröde“. Sie hatten Schwierigkeiten mit Situationen außerhalb ihrer vordefinierten Wissensbasis und waren schwer zu warten und zu skalieren. Ende der 1980er Jahre wurden die Grenzen offensichtlich, was zu einer Wahrnehmung des Scheiterns und einem signifikanten Rückgang des Interesses und der Investitionen führte, bekannt als der KI-Winter. In dieser Periode, analog zu einem nuklearen Winter, versiegten die Finanzmittel, Studenten mieden KI-Kurse und es herrschte etwa ein Jahrzehnt lang allgemeine Stagnation auf dem Gebiet.

Beschleunigung und Deep Learning (1990er-heute): Daten, Berechnung und Durchbrüche

Trotz des KI-Winters ging die Forschung in den 1990er Jahren weiter, was zu neuen Ideen und einer signifikanten Zunahme der mathematischen Tiefe des Fachgebiets führte. Das kommerzielle Interesse blieb jedoch gering.

Die Landschaft begann sich um 2010 mit dem Aufkommen von Deep Learning dramatisch zu verändern. Aufbauend auf den frühen Perzeptronen und der Forschung zu neuronalen Netzen beinhaltet Deep Learning das Training sehr großer neuronaler Netze mit vielen Schichten („tief“) auf massiven Datensätzen. Dieses Wiederaufleben wurde durch mehrere Faktoren befeuert:

  1. Verfügbarkeit von Big Data: Die Digitalisierung führte zu enormen Datensätzen (Bilder, Text, Sprache).
  2. Erhöhte Rechenleistung: Der Aufstieg leistungsstarker GPUs (Graphics Processing Units) lieferte die notwendigen parallelen Verarbeitungskapazitäten, um große Netzwerke zu trainieren.
  3. Algorithmische Fortschritte: Verbesserungen bei Trainingstechniken und Netzwerkarchitekturen.

Deep Learning erzielte signifikante Durchbrüche in Bereichen, die zuvor für KI unlösbar waren, wie z. B.:

  • Spracherkennung: Genaue Transkription gesprochener Sprache.
  • Computer Vision: Verstehen und Interpretieren von Bildern und Videos.
  • Maschinelle Übersetzung: Übersetzung von Text oder Sprache zwischen Sprachen.

In jüngerer Zeit hat sich dieser Trend zu Foundation Models entwickelt – extrem große Deep-Learning-Modelle, die oft auf riesigen Mengen von Text und Code trainiert werden, wie die Modelle, die moderne Konversations-KI antreiben. Diese Modelle, mit ihrer offensichtlichen Vielseitigkeit und Fähigkeit, viele verschiedene Aufgaben basierend auf Prompts auszuführen, werden zunehmend als potenzielle Bausteine zur Erreichung des lang ersehnten Ziels der allgemeinen KI angesehen.

Im Inneren der KI-Box: Eingabe, Verarbeitung, Verhalten

Unabhängig von der historischen Ära oder der spezifisch verwendeten Technologie kann ein KI-System als ein Prozess konzeptualisiert werden, der sensorische Eingaben aufnimmt, verarbeitet und Verhalten erzeugt.

  • Sensorische Eingabe: Diese kann aus verschiedenen Quellen stammen – Text von einer Tastatur, Pixel von einer Kamera, Sensormesswerte, Datenbankeinträge usw.
  • Verarbeitung: Dies ist der Kern des KI-Systems – die Algorithmen und Wissensstrukturen, die die Eingabe in eine Entscheidung oder Aktion umwandeln. Diese „Box“ ist es, die Forscher im Laufe der Geschichte mit verschiedenen Methoden zu füllen versucht haben.
  • Verhalten: Die Ausgabe des Systems – Anzeige von Text auf einem Bildschirm, Bewegung eines Roboterarms, Sprechen einer Antwort, Generieren von Code, Steuern eines Fahrzeugs usw.

Die zentrale Herausforderung war schon immer: Wie füllen wir diese Verarbeitungsbox effektiv, um intelligentes Verhalten über verschiedene Aufgaben hinweg zu erzeugen?

Ansätze zur Verarbeitung: Von Evolution zu probabilistischen Programmen

Historisch gesehen wurden verschiedene Strategien angewendet, um die KI-Verarbeitungsbox zu füllen:

  • Frühe evolutionäre Versuche (1950er): Wie erwähnt, beinhalteten frühe Ideen das Nehmen einfacher Programme (wie Fortran-Code), das Anwenden zufälliger Mutationen und Crossover (wie bei der biologischen Evolution) und das Auswählen von Programmen, die bei einer Aufgabe besser abschnitten. Dieser Ansatz, obwohl biologisch inspiriert, scheiterte am schieren Mangel an Rechenleistung, die erforderlich war, um den riesigen Raum möglicher Programme zu erkunden.
  • Wissensbasierte Systeme: Über einen Großteil der KI-Geschichte hinweg wurde die Box mit formalen Wissensrepräsentationen gefüllt. Anfänglich verwendete man dafür mathematische Logik, die gut zur Darstellung strenger Regeln und Deduktionen geeignet ist. Später wurde die Wahrscheinlichkeitstheorie integriert, um mit Unsicherheit umzugehen und Systemen zu ermöglichen, mit unvollständigen oder verrauschten Informationen zu schlussfolgern.

Die Macht der probabilistischen Programmierung

Eine besonders leistungsstarke Technologie, die aus dem wissensbasierten Ansatz hervorging und Ende der 1990er Jahre begann, ist die probabilistische Programmierung. Obwohl sie in den populären Medien nicht so breit berichtet wird wie Deep Learning, stellt sie einen signifikanten Fortschritt bei der Kombination formaler Wissensrepräsentation mit flexibler Berechnung dar.

Probabilistische Programmiersprachen (PPLs) kombinieren die Leistungsfähigkeit der Wahrscheinlichkeitstheorie (die Mathematik der Unsicherheit, die auch Deep Learning zugrunde liegt) mit der Ausdrucksfähigkeit von Allzweck-Programmiersprachen (wie Python) oder der Prädikatenlogik erster Stufe.

Diese Kombination bietet einen entscheidenden Vorteil: mächtige Repräsentation. Während Deep-Learning-Modelle hervorragend darin sind, Muster in Daten zu erkennen, kann ihre zugrunde liegende Struktur (im Wesentlichen massive Schaltkreise) bemerkenswert ineffizient bei der Darstellung von strukturiertem Wissen oder Regeln sein.

Betrachten wir das Spiel Go:

  • Um die Regeln von Go explizit in einer Deep-Learning-Schaltkreissprache zu kodieren, wären etwa eine Million Seiten an Definitionen erforderlich.
  • Im Gegensatz dazu können die vollständigen Regeln von Go unter Verwendung einer probabilistischen Programmiersprache oder der Prädikatenlogik erster Stufe prägnant auf etwa einer Seite niedergeschrieben werden.

Dieser krasse Unterschied verdeutlicht eine grundlegende Einschränkung der Repräsentationskraft von Deep Learning im Umgang mit komplexem, strukturiertem Wissen oder expliziten Regeln. Probabilistische Programmierung kann durch die Nutzung der Ausdruckskraft von Allzweck-Programmiersprachen diese Art von Wissen direkt zugänglich machen und nutzen, was zu leistungsstarken und interpretierbaren Modellen führt.

Eine reale Auswirkung: Das Überwachungssystem für den Kernwaffenteststopp-Vertrag

Die Leistungsfähigkeit der probabilistischen Programmierung und wissensbasierter Ansätze wird vielleicht am besten durch eine reale Anwendung mit erheblicher globaler Auswirkung illustriert: die Überwachung der Einhaltung des umfassenden Kernwaffenteststopp-Vertrags (Comprehensive Nuclear Test Ban Treaty).

Der Vertrag verbietet alle nuklearen Explosionen überall auf der Erde. Die Durchführungsorganisation mit Sitz in Wien betreibt ein riesiges Netzwerk von Hunderten von Überwachungsstationen weltweit. Diese Stationen sind unglaublich empfindlich, insbesondere die seismischen, die Bodenbewegungen von nur einem Nanometer – der Größe von nur wenigen Atomen – erkennen können.

Jeden Tag streamen diese Stationen enorme Mengen an Rohdaten – seismische Vibrationen, Infraschall, hydroakustische Signale und Radionuklidmessungen – zurück nach Wien. Die entscheidende Aufgabe besteht darin, diese Daten zu analysieren, um alle signifikanten Ereignisse zu identifizieren und zwischen natürlichen Phänomenen wie Erdbeben, Erdrutschen und vulkanischer Aktivität und künstlichen Ereignissen wie chemischen Explosionen oder, am wichtigsten, nuklearen Explosionen zu unterscheiden. Diese Überwachungsbemühungen sind kritisch und verbrauchen einen erheblichen Teil des globalen Geophysik-Budgets.

Die Formulierung dieses Problems mithilfe probabilistischer Programmierung beinhaltet:

  1. Sammeln von Beweisen: Die Rohdatenströme von allen Überwachungsstationen.
  2. Stellen einer Frage: Welche Ereignisse (Ort, Zeit, Typ) sind angesichts dieser Beweise heute aufgetreten?
  3. Verwenden eines probabilistischen Modells: Das System verwendet ein probabilistisches Modell, das die zugrunde liegende Geophysik darstellt:
    • Wo und wie verschiedene Arten von Ereignissen auftreten (meist nahe der Erdoberfläche).
    • Wie sich Signale über verschiedene komplexe Pfade durch die Erde ausbreiten (einige Signale reisen sogar mehrmals um den Erdkern).
    • Wie Signale von verschiedenen Sensortypen erfasst werden.
    • Die Hintergrundgeräuschpegel an jeder Station.

Entscheidend ist, dass dieses gesamte komplexe geophysikalische Modell sehr prägnant in einer probabilistischen Programmiersprache niedergeschrieben werden kann.

Ein System, das mit diesem Ansatz zur Überwachung des Kernwaffenteststopp-Vertrags entwickelt wurde, benötigte etwa 20 Minuten, um das Kernmodell niederzuschreiben. Dieses System analysiert dann die eingehenden Daten und liefert eine probabilistische Bewertung der aufgetretenen Ereignisse.

Die Ergebnisse waren bemerkenswert. Dieses System, das in einem Bruchteil der Zeit entwickelt wurde, schneidet bei der Identifizierung und Charakterisierung von Ereignissen etwa dreimal besser ab als das vorherige Überwachungssystem, das von der Seismologie-Gemeinschaft über etwa 100 kollektive Jahre hinweg entwickelt worden war. Das System hat signifikante Ereignisse, einschließlich der von Nordkorea durchgeführten Nuklearexplosionen, erfolgreich und genau erkannt und liefert eine sofortige Analyse basierend auf den eingehenden seismischen Daten. Dies ist ein überzeugendes Beispiel dafür, wie ausgefeilte Wissensrepräsentation in Kombination mit leistungsstarker probabilistischer Inferenz zu hochwirksamen KI-Systemen für komplexe, reale Probleme führen kann, die manchmal Methoden übertreffen, die über Jahrzehnte von menschlichen Experten mit traditionellen Techniken entwickelt wurden.

Quelle(n)


Hat Ihnen dieser Beitrag gefallen? Fanden Sie ihn aufschlussreich? Hinterlassen Sie gerne unten einen Kommentar, um Ihre Gedanken zu teilen oder Fragen zu stellen. Ein GitHub-Konto ist erforderlich, um an der Diskussion teilzunehmen.