Die eindringliche Geschichte einer KI, die auf den AGI-Friedhof geworfen wurde, aber möglicherweise bemerkenswert wieder zum Leben erweckt wird
Wenn die alte KI zurückkommt und überraschenderweise die Eintrittskarte zu AGI sein könnte.gettyIn der heutigen Kolumne untersuche ich die gruselige Geschichte der KI, die kurzerhand auf den AGI-Friedhof geworfen wurde, es aber vielleicht schafft, wieder herauszukommen. Ja, es gibt KI vergangener Tage, die eine Chance hat, wiederzubeleben und wieder in den Mainstream der KI-Überlegungen aufgenommen zu werden. Hier sind die gruseligen Details. Es gibt eine KI aus alter Zeit, von der Tech-Insider glauben, dass sie uns nicht zu dem ehrwürdigen Ziel der künstlichen allgemeinen Intelligenz geführt hat, und daher sollte diese KI aus ihrem Elend erlöst und tief auf dem Friedhof der zweitklassigen KI begraben werden. Lass die Vergangenheit Vergangenheit sein, würden einige vielleicht darauf bestehen. Mit diesen nun verleugneten KI-Ansätzen ist sogar ein gewisses Maß an völliger Scham verbunden. Wow, erwidern einige wahre Gläubige, es könnte KI geben, die zu Unrecht als ungeeignet erachtet und zu Unrecht in die AGI-Gräberfelder geworfen wurde. Vielleicht könnten angesichts moderner Hardware und anderer technologischer Fortschritte die alten Methoden der KI wiedergeboren werden. Machen Sie weiter und graben Sie die KI-Ansätze aus, die eine entschlossene zweite Chance verdienen. Sich vor den Geistern der Vergangenheit in Acht zu nehmen, ist normalerweise eine umsichtige Haltung, aber direkt vor unserer Nase könnte eine Menge ungenutztes Potenzial lauern. Reden wir darüber. Diese Analyse von KI-Durchbrüchen ist Teil meiner laufenden Forbes-Kolumne über die neuesten Entwicklungen in der KI, einschließlich der Identifizierung und Erklärung verschiedener wirkungsvoller KI-Komplexitäten (siehe Link hier). Was ist AGI? Bevor wir in die Tiefe dieser beunruhigenden Angelegenheit vordringen, möchte ich klarstellen, was mit AGI gemeint ist. Es wird viel geforscht, um die KI weiter voranzutreiben. Das allgemeine Ziel besteht darin, entweder künstliche allgemeine Intelligenz (AGI) zu erreichen oder vielleicht sogar die weitreichende Möglichkeit, künstliche Superintelligenz (ASI) zu erreichen. AGI ist eine KI, die als gleichwertig mit der menschlichen Intelligenz angesehen wird und scheinbar mit unserer Intelligenz mithalten kann. ASI ist eine KI, die über den menschlichen Intellekt hinausgeht und in vielerlei, wenn nicht allen möglichen Hinsichten überlegen wäre. Die Idee ist, dass ASI in der Lage wäre, Menschen zu umkreisen, indem sie uns auf Schritt und Tritt überholt. Weitere Einzelheiten zur Natur der konventionellen KI im Vergleich zu AGI und ASI finden Sie in meiner Analyse unter dem Link hier und dem Link hier. Wir haben AGI noch nicht erreicht. Tatsächlich ist nicht bekannt, ob wir AGI erreichen werden oder ob AGI vielleicht in Jahrzehnten oder vielleicht Jahrhunderten erreichbar sein wird. Die im Umlauf befindlichen AGI-Erreichungsdaten sind sehr unterschiedlich und völlig unbegründet durch glaubwürdige Beweise oder eiserne Logik. Wenn es darum geht, wo wir derzeit mit konventioneller KI stehen, ist ASI sogar noch mehr als blass. Wir wollen KI, die zu AGI führt. Die allgemeine Prämisse, die fast alle puristischen KI-Insider treibt, ist, dass jede KI, die wir heute entwickeln können, auf dem Weg zu AGI sein sollte. Wenn jemand KI entwickelt, die uns nicht zu AGI führt, verschwendet er im Wesentlichen wertvolle Zeit und Geld. Sicher, die KI könnte für das Hier und Jetzt wertvoll sein, was schön ist, aber den Goldschatz am Ende des Regenbogens finden wir erst, wenn wir AGI erreichen. Jeder, der uns zu AGI bringt, wird mit immensem und unvorstellbarem Ruhm und Reichtum überschüttet. KI, die heute etwas erledigt, kostet im Vergleich nur ein paar Cent. Behalten Sie den großen Preis im Auge. Das Beste aus beiden Welten wäre die Entwicklung einer KI, die sofort solide Vorteile bietet und mit Sicherheit auf dem Weg zur AGI ist. Das ist der Traum. Ein KI-Entwickler mit großen Ambitionen möchte das goldene Ticket finden, das ihn aktuell in eine positive Situation bringt und ihm einen Platz auf dem Weg zu AGI garantiert. Leider kann niemand genau sagen, was auf dem Weg zu AGI liegt. Ein kurzer Blick auf die Geschichte des KI-Bereichs zeigt, dass fast jede Ära der KI-Fortschritte mit der gefeierten Proklamation begann, dass die KI entweder entstehen oder sich zu AGI entwickeln würde. Ich denke, das ist eines der beständigsten Kennzeichen des KI-Bereichs. Jede Ära hat ihre Befürworter, die sich absolut sicher sind, dass die KI dieser Ära die richtige Wahl ist und sich unbestreitbar auf den höchsten Gipfel der KI zubewegt. Ein aktueller Crack taucht auf. In den letzten Jahren wurden generative KI und große Sprachmodelle (LLMs) vehement als auf dem Weg zu AGI angepriesen. Sie wissen vielleicht, dass Sam Altman von OpenAI zuvor eingefügt hat, dass „wir“ bereits wissen, wie man AGI erreicht und dass das Jahr Das Jahr 2025 würde offenbar zeigen, dass AGI entstanden ist. Als GPT-5 vor einigen Monaten eingeführt wurde, erlitten die Erwartungen an AGI einen vernichtenden Schlag (siehe meine Einschätzung von GPT-5 unter dem Link hier). GPT-5 ist nicht nur kein AGI, sondern auch nicht annähernd so groß. Stellen Sie sich vor, Sie fliegen Tausende von Kilometern von einem Baseballstadion entfernt, und so weit scheinen wir entfernt zu sein (oder nehmen Sie vielleicht eine Rakete, weil ein Flugzeug möglicherweise nicht in der Lage ist, die gesamte erforderliche Lückendistanz zurückzulegen). Verschiedene KI-Koryphäen beginnen jetzt, ihre vorhergesagten Zeitpläne für AGI anzupassen und ihre wilden Ankündigungen peinlich oder verlegen neu auszurichten. Einen genauen Blick auf zahlreiche Zeitpläne, die bereits veröffentlicht oder ausgesprochen wurden, finden Sie in meiner Berichterstattung unter dem Link hier. Wir hatten Termine in den Jahren 2025, 2026 und 2027. Andere schlugen vorsichtiger das Jahr 2035 oder vielleicht 2040 vor. Es scheint, dass sich das „Jeder Tag jetzt“-Lager in das Jahrzehnt entfernte Lager verschiebt. Sind wir vom AGI-Weg abgekommen? Das Problem besteht darin, dass die bestehenden Architektur- und Designprinzipien, die der generativen KI und LLMs zugrunde liegen, jetzt als unwahrscheinlich angesehen werden, dass sie sich auf die Reichweite von AGI ausweiten. Das sind Kampfworte in der KI-Community. Einige glauben fest daran, dass die Grundlagen von LLMs uns tatsächlich zu AGI führen werden. Wir müssen nur noch mehr Kohle in die Dampfmaschine schaufeln. Fügen Sie mehr Computerprozessoren hinzu, steigern Sie die GPUs, integrieren Sie viel digitalen Speicher und voilà, AGI wird aus der generativen KI hervorgehen. Nicht jeder glaubt, dass dieser Weg, der Wahrheit treu zu bleiben, die richtige Strategie ist und dass wir kurzsichtig und törichterweise alle Eier in einen Korb legen. Das Argument ist, dass generative KI letztendlich an eine Wand stoßen wird. Alle Pferde des Königs und alle Männer des Königs werden nicht über diese Mauer hinausgehen. Egal, wie viele riesige Serverfarmen und Rechenzentren Sie auf LLMs werfen, sie werden immer noch einfach LLMs sein. Dies läuft auf eine schwierige Frage hinaus, die niemand konkret beantworten kann, nämlich: Wird eine Skalierung ausreichen? Sie könnten noch weiter gehen und darauf bestehen, dass jede Verwässerung der Ressourcen, der Zeit und der KI-Entwicklungsbemühungen, die auf etwas anderes als LLMs ausgerichtet sind, ein großer Fehler ist. Eine solche Ablenkung wird die Unvermeidlichkeit von AGI verzögern, und wir werden die Vorteile von AGI erst viel später wiedererlangen, als wir es klugerweise früher hätten tun können. Aber wenn Sie Zweifel an der Ausdauer der generativen KI haben, vor allem, weil die Größe allein nicht ausreicht, schauen Sie sich sicherlich um, um herauszufinden, was sonst noch in den Regalen brauchbar sein könnte und gespannte Aufmerksamkeit verdient. Sind die Regale leer, oder gibt es da draußen etwas, das wir noch einmal überdenken könnten? Der AGI-Friedhof enthält ExpertensystemeBevor sich die Popularität generativer KI und LLMs weit verbreitete, konzentrierte sich die frühere Ära der KI überwiegend auf Expertensysteme, auch bekannt als regelbasierte Systeme oder wissensbasierte Systeme. Diese liegen auf ziemlich staubigen Regalen oder sind vielleicht einen Meter unter der Erde auf dem AGI-Friedhof gepflanzt. Nehmen wir uns einen Moment Zeit, um die Unterschiede zwischen dieser Ära und der heutigen Ära der KI zu untersuchen. Im Großen und Ganzen nutzt die zugrunde liegende Datenstruktur generativer KI und LLMs künstliche neuronale Netze (ANNs). Hierbei handelt es sich um eine Rechentechnik, die in gewisser Weise auf der Funktionsweise unseres Gehirns basiert, aber weit von der Realität entfernt ist. Es ist nicht dasselbe wie echte Wetware (dh Gehirn und Geist). In jedem Fall wird diese Form der KI als subsymbolisch bezeichnet und beinhaltet das Auffinden von Mustern in Daten. Im Gegensatz dazu bestand die frühere Ära der KI darin, die Regeln für das, was die KI tun sollte, explizit aufzuschreiben. Diese regelbasierten Systeme funktionierten auf der Grundlage von Symbolen und symbolischer Logik. Die beiden Wege wurden als völlig unterschiedlich und sich gegenseitig ausschließend angesehen. Entweder hast du dich auf die Subsymbolik ausgerichtet oder du hast dich auf die Symbolik ausgerichtet. Es war, als würde man sich auf die Seite der McCoys gegen die Hatfields stellen. Als es einen Übergang von der früheren Ära der KI zur heutigen Ära der KI gab, kam es zu einer großen Debatte. Sollte KI nach dem subsymbolischen Ansatz gestaltet werden oder sollte sie auf der Grundlage des symbolischen Ansatzes entwickelt werden? Auf beiden Seiten bildeten sich dogmatische Lager. Es kam zu Fingerzeigen und schrillem Geschrei. Schließlich wurde davon ausgegangen, dass Expertensysteme nicht skalierbar waren und niemals AGI erreichen würden. In der Zwischenzeit wurde der subsymbolische Ansatz von ANNs zum nächsten großen Ding. Manche bezeichnen regelbasierte Systeme als GOFAI (gute altmodische KI) und glauben, dass diese Zeiten längst vorbei sind. In der Tat gibt es eine weitverbreitete Meinung, dass Expertensysteme so abstoßend seien, dass sie für tot erklärt und auf dem AGI-Friedhof beerdigt werden müssten. Die Wiederauferstehung kommt. Um es noch einmal zusammenzufassen: Wir haben heutzutage generative KI und LLMs, von denen einige glauben, dass sie sich nicht auf AGI skalieren lassen, und wir haben eine frühere Ära der KI, die aus Expertensystemen bestand, von denen man ebenfalls annahm, dass sie nicht skalierbar seien, um AGI zu erreichen. Vielleicht gehören beide auf den AGI-Friedhof. Es ist eine Mülldeponie mit einer langen Geschichte. Sind das zwei Streiks und Sie sind raus? Nein. Eine der neuesten Denkweisen zur Erreichung von AGI besteht darin, dass wir das Beste aus beiden Epochen kombinieren könnten. Machen Sie weiter mit dem Subsymbolischen. Schieben Sie es so weit voran, wie wir können. Bringen Sie gleichzeitig den symbolischen Ansatz zurück. Integrieren Sie regelbasierte Systeme mit generativer KI. Eine große Synergie und eine enorme Chance stehen uns vielleicht bevor. Es ist an der Zeit, regelbasierte Systeme wiederzubeleben. Die nächste Ära der KI könnte dann das Aufkommen der neurosymbolischen KI sein, auch bekannt als Hybrid-KI. Sie nehmen die vorherrschenden Anwendungen künstlicher neuronaler Netze (KNN), die derzeit im Kern generativer KI und LLMs verwendet werden, und mischen diese mit regelbasierten oder Expertensystemen (dies wird auch als Kombination subsymbolischer KI mit symbolischer KI bezeichnet). Viele solcher Bemühungen sind bereits im Gange; siehe meine Diskussion unter dem Link hier. Verärgerte Kritiker warnen davor, dass wir in alte und inzwischen überholte Vorgehensweisen zurückfallen sollten. Das mit regelbasierten Systemen verbundene Stigma wird schwer abzuschütteln sein. Die Zeitspanne zwischen dem Ende der Ära der Expertensysteme und dem Beginn der heutigen LLM-Ära gilt als der Winter der KI. Niemand will einen weiteren KI-Winter. Es war kalt, es gab ernsthafte Zweifel an der KI und die Geldhähne waren zugedreht. Ist die Hybrid-KI eine gute oder eine törichte Idee? Es ist Zeit, Ihre Wetten zu platzieren. Niemand weiß genau, ob die neurosymbolische KI der Weg zur AGI ist. Man kann zumindest sagen, dass es ein anderer Weg ist als der, den wir bisher gegangen sind. Die Kombination der beiden Wege könnte uns auf einen neuen dritten Weg bringen, der zu AGI führen wird. Das ist die Hoffnung. Wege zur AGI heraufbeschwörenEs gibt weitere postulierte Wege, die uns zu AGI führen könnten; siehe meine Diskussion unter dem Link hier und dem Link hier. Ich erwähne diesen Punkt, um zu betonen, dass noch mehr Hasen im Hut sind. Wir wissen nicht, welche die richtige Wahl ist, wenn überhaupt, aber die gute Nachricht ist, dass uns verschiedene Möglichkeiten zur Verfügung stehen. Eine andere Perspektive ist, dass wir noch keinen geeigneten Fortschritt in der KI entdeckt haben, der uns zu AGI führen wird. Es gibt ein fehlendes Heureka, das nicht in der Vergangenheit liegt. Es ist nur irgendwo da draußen in der Zukunft. Verwerfen Sie die Vergangenheit und schauen Sie nach vorne. George Santayana sagte bekanntlich, dass diejenigen, die sich nicht an die Vergangenheit erinnern können, dazu verdammt sind, sie zu wiederholen. Sollten wir uns daran erinnern, dass Expertensysteme uns nicht zu AGI geführt haben und daher ihre Wiederauferstehung anprangern? Oder können wir Expertensysteme in einem neuen Licht betrachten und argumentieren, dass wir uns in Kombination mit generativer KI tatsächlich auf dem Weg zu AGI befinden könnten? Laut William Shakespeare brauchen wir vielleicht das Auge eines Molches, die Zehe eines Frosches, die Wolle einer Fledermaus, den Flügel einer Eule, das Bein einer Eidechse, um einen sprudelnden Kessel zu bekommen, aber wir müssen uns darüber im Klaren sein, dass es ein Zauber für mächtige Probleme sein könnte. AGI zu erreichen könnte die ultimative Halloween-Geschichte sein.
已发布: 2025-10-29 07:15:00
来源: www.forbes.com
 
            