Es gibt nur ein Problem: KI ist nicht intelligent, und das ist ein systemisches Risiko - Charles H. Smith | MakroTranslations

Samstag, 10. August 2024

Es gibt nur ein Problem: KI ist nicht intelligent, und das ist ein systemisches Risiko - Charles H. Smith

Die Nachahmung von Intelligenz ist keine Intelligenz, und so ist die KI-Imitation zwar ein mächtiges Werkzeug, aber nicht intelligent.

Die Mythologie der Technologie hat einen besonderen Altar für KI, künstliche Intelligenz, die ehrfürchtig als Quelle erstaunlicher Kostensenkungen (da menschliche Arbeit durch KI ersetzt wird) und der grenzenlosen Ausweitung von Konsum und Gewinnen angebetet wird. KI ist die glückselige Vollendung des natürlichen Fortschritts der Technologie zu immer größeren Leistungen.

Es herrscht Einigkeit darüber, dass der Fortschritt der KI zu einer Utopie einer im Wesentlichen grenzenlosen Kontrolle über die Natur und einem Füllhorn von Freizeit und Überfluss führen wird.

Wenn wir den Vorhang der Mythologie beiseite ziehen, stellen wir fest, dass KI die menschliche Intelligenz nachahmt, und diese Nachahmung ist so faszinierend, dass wir sie als Beweis für tatsächliche Intelligenz ansehen. Aber die Nachahmung von Intelligenz ist keine Intelligenz, und so ist die KI-Nachahmung zwar ein mächtiges Werkzeug, aber nicht intelligent.

Die aktuellen Varianten der generativen KI - große Sprachmodelle (LLMs) und maschinelles Lernen - ahmen unsere natürlichen Sprachfähigkeiten nach, indem sie Millionen von Beispielen menschlicher Schrift und Sprache verarbeiten und die von Algorithmen als beste Antworten auf Anfragen ausgewählten Daten extrahieren.

Diese KI-Programme haben kein Verständnis für den Kontext oder die Bedeutung des Themas; sie nutzen das menschliche Wissen, um eine Antwort zu destillieren. Dies ist zwar potenziell nützlich, aber nicht intelligent.

Die KI-Programme sind nur begrenzt in der Lage, Wahrheit von Unwahrheit zu unterscheiden, weshalb sie dazu neigen, Fiktionen als Tatsachen zu halluzinieren. Sie sind nicht in der Lage, den Unterschied zwischen statistischen Schwankungen und fatalen Fehlern zu erkennen, und die Auferlegung von Vorsichtsmaßnahmen führt zu zusätzlicher Komplexität, die eine weitere Schwachstelle darstellt.

Was das maschinelle Lernen anbelangt, so kann die KI plausible Lösungen für rechenintensive Probleme wie die Proteinfaltungen projizieren, doch ist diese rohe Gewalt in Form einer Blackbox undurchsichtig und daher nur von begrenztem Wert: Das Programm versteht die Proteinfaltung nicht so, wie sie der Mensch versteht, und wir verstehen nicht, wie das Programm zu seiner Lösung gekommen ist.

Da die KI den Kontext nicht wirklich versteht, ist sie auf die Optionen beschränkt, die in ihrer Programmierung und ihren Algorithmen eingebettet sind. Wir erkennen diese Grenzen bei KI-basierten Anwendungen und Bots, die das eigentliche Problem nicht kennen. Zum Beispiel ist unsere Internetverbindung aufgrund eines beschädigten System-Updates gestört, aber da diese Möglichkeit nicht in das Universum der zu lösenden Probleme der App aufgenommen wurde, meldet die KI-App/der KI-Bot pflichtbewusst, dass das System perfekt funktioniert, obwohl es kaputt ist. (Dies ist ein Beispiel aus dem wirklichen Leben.)

Im Grunde schafft jede Schicht dieses Mining / der Nachahmung zusätzliche Fehlerquellen: die Unfähigkeit, den Unterschied zwischen Fakt und Fiktion oder zwischen zulässigen Fehlerquoten und fatalen Fehlern zu erkennen, die zusätzliche Komplexität von Vorsichtsmaßnahmen und die Blackbox- Undurchsichtigkeit führen alle zu dem Risiko, dass normale Unfälle kaskadenartig zu Systemausfällen führen.

Hinzu kommt das systemische Risiko, das dadurch entsteht, dass man sich bei der Steuerung von Systemen so sehr auf Blackbox-KI verlässt, dass der Mensch nicht mehr in der Lage ist, die Systeme zu ändern oder neu zu bauen. Dieses übermäßige Vertrauen in KI-Programme birgt das Risiko eines kaskadenartigen Versagens nicht nur digitaler Systeme, sondern auch der realen Infrastruktur, die nun von digitalen Systemen abhängt.

Die Abhängigkeit von KI bei der Lösung von Problemen hat noch eine andere, noch schädlichere Folge. Genauso wie der Suchtcharakter von Mobiltelefonen, sozialen Medien und Internetinhalten unsere Fähigkeit beeinträchtigt hat, uns zu konzentrieren, zu fokussieren und schwierige Inhalte zu lernen - ein verheerender Rückgang beim Lernen von Kindern und Jugendlichen -, bietet die KI eine Fülle von Häppchen, Codeschnipseln, computergenerierten TV-Werbespots, Artikeln und ganzen Büchern, für die wir kein tiefes Wissen über Themen und Prozesse mehr benötigen. Ohne dieses Wissen sind wir nicht mehr in der Lage, skeptisch zu recherchieren oder Inhalte oder Codes von Grund auf zu erstellen.

Der mühsame Prozess der Aneignung dieses Wissens scheint in der Tat überflüssig zu sein: Der KI-Bot kann alles, schnell, billig und genau. Dies führt zu zwei Problemen: 1) Wenn Blackbox-KI-Programme versagen, wissen wir nicht mehr genug, um den Fehler zu diagnostizieren und zu beheben oder die Arbeit selbst zu erledigen, und 2) wir haben die Fähigkeit verloren, zu verstehen, dass es in vielen Fällen keine Antwort oder Lösung gibt, die das letzte Wort ist: Die "Antwort" erfordert die Interpretation von Fakten, Ereignissen, Prozessen und Wissensdatenbanken, die von Natur aus mehrdeutig sind.

Wir erkennen nicht mehr, dass die KI-Antwort auf eine Frage keine Tatsache an sich ist, sondern eine Interpretation der Realität, die als Tatsache präsentiert wird, und dass die KI-Lösung nur einer von vielen Wegen ist, von denen jeder mit Kompromissen verbunden ist, die unvorhersehbare Kosten und Konsequenzen nach sich ziehen.

Um den Unterschied zwischen einer Interpretation und einer vermeintlichen Tatsache zu erkennen, ist ein breites und tiefes Wissen erforderlich, und da wir den Drang und die Fähigkeit verloren haben, uns schwieriges Material anzueignen, haben wir auch die Fähigkeit verloren, zu erkennen, was wir verloren haben: Denjenigen, die nur wenig wirkliches Wissen haben, fehlt die Grundlage, um die Antwort der KI im richtigen Kontext zu verstehen.

Das Ergebnis ist, dass wir weniger fähig und weniger sachkundig werden und blind für die Risiken sind, die durch unseren Kompetenzverlust entstehen, während die KI-Programme systemische Risiken einführen, die wir nicht vorhersehen oder abwenden können. KI verschlechtert die Qualität aller Produkte und Systeme, denn Nachahmung erzeugt keine endgültigen Antworten, Lösungen und Erkenntnisse, sondern nur die Illusion endgültiger Antworten, Lösungen und Erkenntnisse, die wir dummerweise mit tatsächlicher Intelligenz verwechseln.

Während der neofeudale Konzernstaat die Profite bejubelt, die durch die massenhafte Ausmerzung menschlicher Arbeitskraft erzielt werden können, stößt das Mining / die Nachahmung menschlichen Wissens an Grenzen. Sich darauf zu verlassen, dass die KI-Programme alle fatalen Fehler ausmerzen, ist selbst ein fataler Fehler, und so muss der Mensch in der Entscheidungsschleife bleiben (der OODA-Schleife von Beobachten, Orientieren, Entscheiden, Handeln).

Sobald KI-Programme in Prozesse der Lebenssicherheit oder des Gesundheitswesens eingreifen, ist jede mit dem KI-Programm verbundene Einheit einer unbefristeten (gesamtschuldnerischen) Haftung ausgesetzt, falls schädliche oder tödliche Fehler auftreten.

Wenn wir die Mythologie und die Übertreibungen beiseite lassen, bleibt eine weitere neofeudale Struktur übrig: Die Wohlhabenden werden von Menschen bedient, und der Rest von uns wird mit minderwertigen, fehleranfälligen KI-Dienstleistungen ohne Regressansprüche konfrontiert.

Die Befürworter der KI gehen davon aus, dass die generative KI durch Kosteneinsparungen und neue Produkte/Dienstleistungen Billionen von Dollar an Gewinn einbringen wird. Diese Geschichte entspricht nicht der realen Welt, in der jedes KI-Softwaretool leicht kopiert und verbreitet werden kann, so dass es unmöglich sein wird, den Wert der Knappheit zu schützen, der die wesentliche Dynamik für die Aufrechterhaltung der Preissetzungsmacht darstellt, die erforderlich ist, um übergroße Gewinne zu erzielen.

Der Wert von Software-Tools, die jeder besitzt, ist gering, es sei denn, ein Monopol schränkt den Vertrieb ein, und der Wert der von diesen Tools automatisch generierten Inhalte ist gering: Die Millionen von KI-generierten Liedern, Filmen, Pressemitteilungen, Aufsätzen, Forschungsarbeiten usw. werden jedes potenzielle Publikum überwältigen und den Wert aller KI-generierten Inhalte auf Null reduzieren.

Die Befürworter behaupten, dass die massenhafte Vernichtung von Arbeitsplätzen auf magische Weise durch ganz neue, von der KI geschaffene Industriezweige ausgeglichen werden wird, die an den Übergang von der Landarbeit zur Fabrikarbeit erinnern. Aber der KI-Drache wird seinen eigenen Schwanz fressen, denn er schafft nur wenige Arbeitsplätze oder Gewinne, die besteuert werden können, um die Menschen dafür zu bezahlen, dass sie nicht arbeiten (Universelles Grundeinkommen).

Die vielleicht folgenreichste Einschränkung der KI besteht darin, dass sie nichts zur Lösung der dringendsten Probleme der Menschheit beitragen wird. Sie kann weder den großen pazifischen Müllstrudel säubern, noch die 450 Millionen Tonnen größtenteils nicht recycelten Plastiks, die jedes Jahr ausgestoßen werden, eindämmen, noch den Klimawandel umkehren, noch die erdnahen Umlaufbahnen von Tausenden von gefährlichen Abfällen säubern, noch die hochprofitable Abfall-ist-Wachstum-Deponie-Ökonomie in ein nachhaltiges globales System umwandeln, noch alle Quellen dessen beseitigen, was ich Anti-Fortschritt nenne. Es werden lediglich neue Quellen für systemische Risiken, Verschwendung und neofeudale Ausbeutung hinzukommen.