Künstliche Allgemeine Intelligenz (AGI)

Künstliche Allgemeine Intelligenz (AGI), auch als „starke KI“ bekannt, bezieht sich auf eine Art von Künstlicher Intelligenz (KI), die das Lern- und Problemlösungsvermögen eines durchschnittlichen menschlichen Wesens erreicht oder übertrifft. Im Gegensatz zu den meisten aktuellen KI-Systemen, die als „schwache KI“ klassifiziert werden und auf spezifische Aufgaben beschränkt sind, würde eine AGI in der Lage sein, ein breites Spektrum an kognitiven Aufgaben zu bewältigen.

Einige Schlüsselmerkmale der AGI umfassen:

  1. Lernfähigkeit: Eine AGI kann theoretisch jede intellektuelle Aufgabe erlernen, die ein Mensch ausführen kann. Sie kann sich neues Wissen aneignen, sich an neue Umgebungen anpassen und aus Erfahrungen lernen.
  2. Verständnis und Vernunft: AGI würde nicht nur Daten verarbeiten, sondern auch Kontext verstehen, Schlussfolgerungen ziehen und Entscheidungen auf Basis von Vernunft treffen.
  3. Bewusstsein und Selbstbewusstsein: Einige Theorien über AGI gehen davon aus, dass sie ein gewisses Maß an Bewusstsein oder Selbstbewusstsein entwickeln könnte. Obwohl dies ein umstrittenes und unerforschtes Gebiet ist.
  4. Flexibilität und Anpassungsfähigkeit: Im Gegensatz zu aktuellen KI-Systemen, die für spezifische Aufgaben entwickelt wurden, wäre eine AGI in der Lage, sich an eine Vielzahl von Aufgaben und Herausforderungen anzupassen.

Die Entwicklung einer AGI bleibt eine große wissenschaftliche und technologische Herausforderung und ist Gegenstand von Forschung und Debatten. Einige Experten glauben, dass AGI in den kommenden Jahrzehnten realisierbar sein könnte. Andere Experten sind dagegen skeptisch und glauben, dass es noch weit entfernt oder sogar unmöglich ist. Die potenziellen Auswirkungen einer AGI auf die Gesellschaft, Ethik und die menschliche Existenz sind bedeutend. Experten diskutieren die Auswirkungen intensiv.

Update 12.11.2023 – AGI in weite Ferne?

Der Artikel von t3n.de berichtet über ein Forschungspapier von drei Wissenschaftlern des Google-Unternehmens DeepMind, das sich mit dem aktuellen Stand der KI-Technologie befasst. Die Forscher, Steve Yadlowsky, Lyric Doshi und Nilesh Tripuraneni, kommen zu dem Schluss, dass heutige KI-Modelle, insbesondere Transformer-Modelle, nicht sehr gut darin sind, Ergebnisse außerhalb ihrer Trainingsdaten zu erzielen.

Die Forscher erklären, dass wenn Aufgaben oder Funktionen gestellt werden, die außerhalb der Domäne ihrer Trainingsdaten liegen, verschiedene Versagensarten von Transformatoren auftreten und eine Verschlechterung ihrer Generalisierungsfähigkeit selbst bei einfachen Extrapolationsaufgaben zu beobachten ist. Dies bedeutet, dass ein Transformator-Modell, das nicht auf Daten trainiert wurde, die mit der gestellten Aufgabe in Zusammenhang stehen, wahrscheinlich nicht in der Lage sein wird, diese Aufgabe zu erfüllen, selbst wenn sie an sich einfach ist.

Die Erkenntnisse des Papiers beziehen sich auf OpenAIs GPT-2, aber die Autoren generalisieren ihre Aussagen auf Transformer-Modelle, zu denen auch ChatGPT gehört. Diese Modelle, die einen Input in einen Output transformieren, galten bisher als vielversprechendste Kandidaten für die Entwicklung hin zu einer künstlichen allgemeinen Intelligenz (AGI). AGI würde es Maschinen ermöglichen, intuitives „Denken“ wie das des Menschen zu entwickeln. Trotz großer Trainingsdatensätze haben die KI-Modelle bislang keine Eigenständigkeit entwickeln können und orientieren sich stark an den Inhalten des Trainingsdatensatzes.

Der Artikel erwähnt auch, dass trotz der Skepsis einiger Experten, andere, darunter der Chef von OpenAI, Sam Altman, und der Chef von Microsoft, Satya Nadella, weiterhin an die Entwicklung einer AGI glauben. Shane Legg, Mitgründer von DeepMind, prognostizierte sogar eine 50-prozentige Chance, dass AGI bis zum Jahr 2028 erreicht wird, obwohl er ähnliche Vorhersagen bereits seit zehn Jahren macht.

https://t3n.de/news/google-deepmind-forscher-intelligenz-ki-modelle-1588135/

GDPR Cookie Consent mit Real Cookie Banner