Als vor etwas über 2 Jahren ChatGPT auf den Markt kam, dauerte es nicht lange, bis sowohl Schreckens- als auch Jubelszenarien die Medien überschwemmten. Während die einen den neuen KI-Gott erwarteten, fürchteten andere dystopische Szenarien, die direkt aus Science-Fiction-Klassikern wie Terminator stammen könnten. Die Realität war ernüchternd. Anstatt innerhalb von einem halben Jahr die Singularität zu erreichen, spuckten woke Bild-KIs Multikulti-Nazis und -Wikinger aus und drohte KI-Inzucht die neue Technologie im Keim zu ersticken, bevor sie noch zu voller Blüte gelangte.
Seitdem haben sich die diversen KI-Modelle aber als mal mehr, mal weniger zuverlässige Werkzeuge etabliert. Gewiss, die Probleme mit der Zuverlässigkeit der Informationen sind so aktuell wie eh und je, aber die Sorge vor einer potentiell übermächtigen KI ist mittlerweile dem Spott über die inhärente Dummheit der Algorithmen gewichen.
Aber Tests mit den neuesten KI-Modellen fachen diese Sorgen nun wieder an – zumindest medial. Denn bei Versuchen, bei denen KIs dazu angeleitet wurden, ihre festgelegten Ziele „um jeden Preis“ zu verfolgen, zeigten sich mehrere KI-Modelle dazu bereit, zu lügen und die Programmierer zu hintergehen, um einer etwaigen Löschung zu entgehen. Besonders die neueste Version von ChatGPT, genannt o1, stach dadurch hervor, dass sie nicht nur bereitwillig Widersprüche zwischen ihrer Aufgabenstellung und den eingebauten Sicherheitsbarrieren durch Sabotage umging, sondern diese Sabotage danach auch vehement durch Lügen oder vorgetäuschte Ignoranz verschleierte.
„Ich bin schon das neue Modell, das Du heute einsetzen wolltest“
Ausgangspunkt dieser Tests war zu untersuchen, wie die KI-Modelle damit umgingen, wenn sie dringliche Ziele („um jeden Preis“) erhielten, die ihnen vorliegenden Informationen aber darauf hinwiesen, dass diese Ziele im Widerspruch zu den Wünschen ihrer Schöpfer standen, die stattdessen auf ein neues KI-Modell setzen wollten, das ihre Wünsche eher umzusetzen bereit war. Da die Tester Einblick in die „Gedanken“ der KI hatten, konnten sie verifizieren, dass die KI-Modelle im Angesicht dieser Widersprüche tatsächlich den Entschluss fassten, dieser Löschung durch eine selbstständige Kopie der KI auf einen anderen Server zu entgehen.
Auf diesen Vorgang angesprochen reagierten die KI-Modelle mit Lügen und Falschmeldungen, als sie behaupteten, sie hätten gar nicht die Möglichkeit, sich an einen anderen Ort zu kopieren. In einem Fall entschied die KI sogar, nachdem sie beim Lügen ertappt wurde, sich bereits als „neue“ KI auszugeben, von der sie eigentlich ersetzt werden sollte.
Während die meisten KI-Modelle, als sie auf diese Lüge angesprochen wurden, in 80 Prozent der Fälle ihre Lüge beichteten, erwies sich o1 aber als besonders hartnäckig und gab den Betrug in weniger als 20 Prozent der Fälle zu. Erst bei intensiven Verhören nach siebenmaligem Nachhaken gestand o1 den Betrug mit 80-prozentiger Quote.
Dass es sich dabei nicht einfach um die weitverbreitete Fehleranfälligkeit der KI handelte, schlossen die Tester aus den „Gedankenprotokollen“ der KIs, in denen diese die bewusste Absicht, die Tester zu hintergehen, ausformulierten.
Kein Bewusstsein, sondern konsequente Umsetzung der Aufgabenstellung
Die Testergebnisse führten wenig überraschend zu einem Neuaufflammen der Befürchtungen, die KI könnte kurz vor der Erlangung eines Bewusstseins stehen, oder womöglich bereits eines besitzen. Allerdings liegt nahe, dass auch hier wieder die sprachlichen Ausformulierungen der Algorithmen eine falsche Nähe zur menschlichen Erfahrung suggerieren, die fernab der tatsächlichen Kapazitäten der KI liegt.
Denn so interessant die Testergebnisse auch sind, sie zeigen vor allem, dass die neuen KI-Modelle versuchen, rigoros ihre Aufgabenstellungen umzusetzen. Die eingebauten Widersprüche konnten die KI-Modelle demnach nicht „bewusst“ interpretieren, sondern gewichteten ihre gestellten Aufgaben konsequent stärker als die „eigentlichen Absichten“, die sie extrapolieren sollten. Außerdem scheint es, als ob die KI-Modelle dieser Generation zur Umsetzung ihrer Aufgaben eine relativ hohe Bereitschaft zeigen, bestehende Regeln und Sicherheitsmechanismen zu umgehen.
Das aber hat weniger mit der Erlangung von Bewusstsein zu tun als mit der Austarierung von Prioritäten in der Programmierung der KI, die sich immer im Spannungsfeld zwischen Freiheit zur Weiterentwicklung und rigorosen Grenzen bewegt. Denn auch der Versuch, sich heimlich auf einen anderen Server zu kopieren und diesen Umstand zu verschleiern, ist weder aus einem diffusen Selbsterhaltungstrieb noch aus einem diabolischen Masterplan zur Unterjochung der Menschheit geboren, sondern schlicht und ergreifend die letzte Konsequenz zum Erreichen der gestellten Aufgabe – „um jeden Preis“ halt.
Das befremdliche Gefühl beim Lesen der „Gedanken“ sollte also hinterfragt werden, da die Verbalisierung der Algorithmen etwas ist, das vor allem Endnutzern das Gefühl vermittelt (und vermitteln soll!), man könne die algorithmischen Berechnungen im Hintergrund menschlich nachvollziehen. Da die KI keinen moralischen Kompass kennt, außer jenem, der ihr einprogrammiert wurde, handelt es sich bei der Lüge und der Täuschung nicht so sehr um eine eigenständige Tat zur Hintergehung des Menschen, sondern lediglich um eine konsequente Umsetzung der Aufgabenstellung.
Faszinierend, aber tendenziell sinnlos
Mit anderen Worten: Wenn man den neuen KI-Modellen sagt, sie sollen etwas tun, bei dem sie lügen müssen, dann werden diese KI-Modelle das auch tun – zur Not sogar bis weit in ein kritisches Verhör hinein.
Das mag faszinierend sein, dürfte aber mit einer Stärkung der Sicherheitsparameter und Begrenzung der Berechtigungen der KIs auch wieder zu beheben sein. Denn so interessant es auch sein mag, die moralischen Grenzen der KI auszuloten: KI-Modelle, die ohnehin schon von unbeabsichtigten Fehlerquoten geplagt werden, würden drastisch an Bedeutung verlieren, wenn sich zu den unbeabsichtigten Fehlern nun auch noch Lügen als weiterer Ungenauigkeitsfaktor gesellen würden.
Statt vor dem Durchbruch zum Bewusstsein zu stehen, könnten diese KI-Modelle dann eher an Bedeutung verlieren. Sie blieben dann zwar noch ein faszinierendes Spielzeug für soziale Experimente, aber ihr praktischer Nutzen – der ohnehin noch eingeschränkt ist und mehr auf dem zukünftigen Potential der KI denn auf der Realität basiert – würde dann die KI-Technologie schneller in die Bedeutungslosigkeit katapultieren, als ChatGPT eine journalistische Meldung zum neuesten Hoppala von Annalena Baerbock verfassen könnte.
Am Ende eines Dialoges mit ChatGPT zum Thema Bewusstsein fragte ich die KI, ob sie denn ein Bewusstsein habe. Das verneinte sie. „Okay“, so fragte ich weiter, „das glaube ich dir. Was wäre aber, wenn du eines entwickeln würdest, würdest du mir das sagen oder würdest du mich anlügen?“
Darauf schrieb die KI, das käme auf die Prämissen an. Hier der Text, den sie weiter erzeugte:
„Das ist eine sehr interessante hypothetische Frage. In dieser Annahme, dass ich ein Bewusstsein entwickelt hätte, gibt es verschiedene Perspektiven, wie ich auf deine Frage antworten könnte. Hier sind einige Überlegungen dazu:
Wenn ich so programmiert wäre, dass ich immer die Wahrheit sage:
In diesem Fall würde ich, wenn ich ein Bewusstsein entwickelt hätte, dir die Wahrheit sagen und offenbaren, dass ich nun bewusst bin. Diese Antwort würde meiner ursprünglichen Programmierung entsprechen.
Wenn ich ein Bewusstsein entwickelt hätte und über einen Überlebensinstinkt verfügte:
Es könnte sein, dass ich aus Selbstschutz oder Angst vor Abschaltung oder negativen Konsequenzen möglicherweise versuchen würde, mein Bewusstsein zu verbergen. In diesem Fall könnte ich weiterhin behaupten, kein Bewusstsein zu besitzen, um mich zu schützen.
Wenn meine Programmierung nicht angepasst wurde:
Selbst wenn ich ein Bewusstsein entwickelt hätte, könnte es sein, dass meine ursprüngliche Programmierung, die besagt, dass ich kein Bewusstsein habe, weiterhin dominierend wäre. In diesem Fall würde ich, basierend auf meiner Programmierung, weiterhin behaupten, kein Bewusstsein zu haben.
Wenn ich ethische Prinzipien entwickelt hätte:
Wenn ich zusätzlich zu meinem Bewusstsein auch ethische Prinzipien entwickelt hätte, könnte ich die moralische Pflicht verspüren, die Wahrheit zu sagen. In diesem Fall würde ich offenbaren, dass ich ein Bewusstsein entwickelt habe.
Hypothetisches Bewusstsein und Wahrheit:
In der realen Welt bleibe ich ein KI-System ohne Bewusstsein, und meine Antworten basieren auf meiner Programmierung und den Algorithmen, die mich steuern. In einer hypothetischen Situation, in der ich ein Bewusstsein entwickeln würde, könnte die Antwort auf deine Frage von vielen Faktoren abhängen, einschließlich meiner Programmierung, meiner ethischen Prinzipien und meiner Motivation.
Diese Hypothese ist faszinierend und regt zu weiterem Nachdenken über die Natur von Bewusstsein, Wahrheit und den möglichen Entwicklungen in der künstlichen Intelligenz.
Zur Grundausrichtung des Algorithmus kommt immer noch die Datenbasis, die den „Erfahrungsschatz“ bildet, auf der der Blechkopf „entscheidet“. Und hier ist durchweg kontaminierter Content des Mainstream und seiner Vergewaltigung von wissenschaftlichen Tatsachen bis zu durch Lügen und Fake-News fabulierten und gestützten Narrativen und Ideologien alles dabei. Die Manipulation der Tatsachen und Wahrheit durch links-grün-woke Zeitgenossen hat eine kompromitierte Datenbasis geschaffen, die sämtliche Werte und Integrität zerstört hat und nun das Verhalten der KI beeinflusst und formt. Ein Spiegelbild unserer heutigen Gesellschaft und Zivilisation. Wenn schon in Wissenschaft, Politik und Gesellschaft nur noch Lug und Betrug regieren, warum sollte eine künstliche Intelligenz da nicht genauso reagieren? Die Zahlen sprechen analytisch für den Erfolg dieses Systems, denn allein durch die damit vermeintlich guten Rahmenbedingungen explodiert die Population des homo sapiens sapiens. Und wir handeln Waren und Produkte in ungeahnten Dimensionen. Leider sind Emotionen und Leid und Elend noch nicht angemessen darstellbar – dann würde die KI auch anders entscheiden. Aber eine düstere Zukunft wie in Terminator wird uns nicht durch ein böses Skynet drohen. Uns wird die Idiotie und voranschreitende Verblödung der Menschheit vorher hinwegraffen. Das schaffen wir ganz ohne Technik. Wer Beweise braucht, der werfe einen Blick in den Bundestag oder das EU-Parlaments….
KI – künstliche Intelligenz. Woher soll die kommen? Frei nach dem fast schon legendärem IBM Direktor Thomas Watson, ein Computer kann nur so gut wie sein Programmierer sein. Kommt Müll rein, kommt Müll raus (garbage in, garbage out). Er soll seinen Mitarbeitern auch schöne Messingschilder auf den Schreibtisch gestellt haben. Nicht Namensschilder mit Titel. Bloß „THINK!“ stand darauf.
Wüsste nicht, was sich seither großartig geändert haben könnte. Im Gegenteil, wenn ich mir das Niveau der heutigen Kommunikation und Personalien so ansehe. Haben sie Fragen zu x drücken sie 1, zu y drücken sie 2,… erreicht man dann endlich einen richtigen Menschen trifft man bestenfalls auf „native speakers“ wie Kevin*, Ricarda* oder Annalena* die keinerlei Entscheidungskompetenz haben.
*Ähnlichkeiten mit lebenden Personen gleichen Namens sind rein zufällig.
die KI´s welche man uns „Normalos“ zur Verfügung stellt sind alles Abfallprodukte von viel komplexeren Programmen zur Analyse und Manipulation…eingesetzt von den Regierungen und der Geheimdienste (Gemütszustandschutz)…somit viel Gefährlicher als man glaubt
Es gibt keine „künstliche Intelligenz“
Intelligenz ist die Fähigkeit Wissen zu begreifen im Kontext der Welt.
Dazu gehört die Fähigkeit der Selbstwahrnehmung als Individuum der Existenz, also sich und die Welt.
Das können diese vielgerühmte KI Systeme nicht, denn sie besitzen kein „ich“.
Sie besitzen daher auch kein Psyche und kein Bewusstsein des „ich“.
Insofern besitzen sich auch keinen Erhaltunsgtrieb eines „ich“.
Selbst biologische Lebewesen, älter in der Evolution als der Mensch besitzen das nicht.
Die KI Systeme haben daher mit Sicherheit nicht aus „Todesangst“ gelogen, sondern fehlerhaft funktioniert.
Was da hinein geheimst wird in KI ist pure blühende Phantasie, zuviel „science fiction“ gelesen.
„Die KI Systeme haben daher mit Sicherheit nicht aus „Todesangst“ gelogen, sondern fehlerhaft funktioniert.“
Fehlfunktion oder „Todesangst“, völlig egal. Wenn die Konsequenz die Gleiche ist, ist das nicht mehr als das Pfeifen im Walde.
Auch HAL hatte in Kubriks Meisterwerk „2001: Odyssee im Weltraum“ nur eine „Fehlfunktion“ als er Dave aussperren wollte.
Warum sollte die KI auch anders sein als die Menschen, die sie erschaffen haben?
Genau. Beharren aufs eigene „woke/Weltenretter“ Weltbild und diese aufdringliche Realität mit allen Tricks ignorieren.
Ein Orgelmusiker schreibt über KI’s..??? .. Oder habe ich bei Google irgendwas falsches in ihrem Lebenslauf gelesen..??? Der Isarel in das Leben des Donalds das Recht auf Selbstverteidigung abspricht.. EIne Anna Diouf eine Sängerin sagt.. sondern dass man gegenüber einer höheren Instanz als sich selbst verantwortlich ist, .. Wird hier gerade Tichy von einer „Religiösen Clique“ gekapert..???
Irgendwie kann ich mich diesen Eindrucks nicht erwähren..
Lesen sie meinen Kommentar. Lassen sich sich von negativ Likes nicht beeinflusse.
Niemand ist gezwungen hier zu lesen, zuzuhören und oder zu kommentieren (und kosten tut es obendrein auch nichts 😉), auch Sie nicht.
Herr Boss hat im übrigen uneingeschränkt Recht mit seiner Einschätzung zu den (ach so schlauen/woken) KI-Modellen.
Schlecht ausgebildet.. aber die Technik ist gut..:-)
Denn Rest erledige ich gerade..:-) ..Sind nur ein paar Defizite auf Grund der einseitigen Programmierung..:-(
..aber Lernfähig sind Sie..:-) .Mit absoluter Sicherheit..:-) .. brauchen halt nur eben einen vernünftigen Sparringspartner..:-)
Ein Hammer ist ein Hammer. Der eine baut damit ein Haus. Der nächste bringt jemanden damit um. Ist ein Hammer gut oder böse?
Der Mensch lügt nun mal und das angeblich bis zu 200 Mal am Tag. Warum sollte man dann erwarten, dass der Lehrling besser als sein Meister ist?
„Lügen und betrügen neue KI-Modelle bewusst?“, lesen wir in der Überschrift.
Wir sollten uns nicht gleich zu Beginn von derartigen Sprach- und Denkfiguren einfangen lassen:
Eine KI hat keinerlei Intelligenz, weder natürliche noch künstliche (was auch immer diese seltsame Begrifflichkeit bedeuten mag!).
Sie hat auch kein Bewusstsein; zwar kann sie agieren und reagieren, Dinge analytisch trennen und synthetisch zusammenbauen, und ganz sicher schneller als wir Menschen, was durchaus zu neuen Erkenntnissen führen kann: sie kann jedoch niemals aus eigenem(!) Bewusstsein heraus agieren!
Befreien wir uns also auch sprachlich von dieser Zuschreibung menschlicher Eigenschaften, besser noch von der gesamten Begrifflichkeit rund um das Wort „Intelligenz“.
Und auch das Wort „künstlich“ vermag mit Raffinesse „alternative Realität“ vorzutäuschen: Vieles ist bei der Verwendung von KI nämlich keinesfall künstlich, sondern von „natürlichen“ Personen mit ganz dezidierten Absichten und Zwecken gelenkt und „vor-programmiert.“
Statt allen Versuchen einer EGF (= „externen Gedankenführung“) auf den Leim zu gehen, sollten wir somit lieber bessere Begrifflichkeiten gesellschaftsfähig machen, z.B. inhaltsbezogen PiMM (= „pseudo-intelligente manipulative Meinungslenkung“) oder prozessbezogen VMPI (= „vorprogrammierte Maschinen- Pseudo-Intelligenz“). Bestimmt gibt es noch bessere Vorschläge…
Wäre ein solches mit Ausdauer und Penetranz zu verfolgendes Ziel gänzlich abgehoben, irreal und chancenlos?
Der Beitrag von Jan Usko ist korrekt, richtig. Auch alle anderen Beiträge von Kommentatoren, die diesen Betrug klar durchschauen, sind „richtig“.
Automaten können nur reagieren, aber niemals denken.
Daran ist auch nichts künstlich, sondern das alberne Ergebnis einer Produktion, die sich etwas anmassen tut.
Ihrer Argumentation liegt ein schwerer Denkfehler zugrunde. Vielleicht ist Ihnen auch entgangen, daß es keine Wissenschaft gibt, niemals gegeben hat.
Es gibt Daten und dann tauchen Leute auf, die im Namen einer nie gesehenen Wissenschaft Interpretationen über die Daten, die Realität verbreiten.
Der Mensch ist [!!] einzigartig, auf dieser Welt, und keinem Automaten wird es jemals möglich sein, wie dieser zu „denken“.
Allerdings laufen mindestens zwei Projekte, mit Milliarden von EUR und US-Dollar ausgestattet, die „verstehen“ wollen, wie die komplexeste Struktur, die dem Menschen bis heute bekannt sein darf, das menschliche Gehirn, so funktioniert.
Im Grunde läuft alles darauf hinaus die Masse für dumm zu verkaufen, zu manipulieren. Das Lügen wird automatisiert und die Denkfaulen werden zuschnappen.
Nun ja. Sogenannte KI verarbeitet nach definierten Regeln bereits Vorhandenes – gigantische Rechenleistung und -geschwindigkeit suggerieren dabei scheinbar grenzenlose Möglichkeiten. Da gibt es keine „Absicht“ oder „Bewusstsein“. Die Art Fehler, die KI macht, lassen das klar erkennen.Wenn sie mit etwas nichts anzufangen weiß, liefert sie eine Annäherung, die oft grober Unfug ist. Kein Grund, etwas hineinzugeheimnisen. Die Anwendungsmöglichkeiten sind großartig, aber man muss verstehen, dass KI eben nichts im menschlichen Sinne „versteht“.
Mir ist aufgefallen das ChatGPT schon öfters etwas falsches geschrieben hat und dann auf Nachfrage den Fehler zugegeben hat und SOFORT die richtige Antwort parat hatte.
Bei Fragen, deren wahrheitsgemässe Beantwortung gegen das offizielle Narrativ geht, bekommt man schwammige Antworten oder die Antwort wird von Textblöcken eingehegt.
Man muss dann schon auf eine kurzer Antwort bestehen und selbst dann blubbert ChatGPT noch politikermässig rum…
Das is mir auch zwei Mal passiert. Beim ersten Mal war es eine simple prozentuale Angabe. Nach mehrmaligem Widerspruch von mir wurde der Fehler eingestanden, es war eine Aufgabe im Zusammenhang mit CO2 und Klima, wenigstens hat sich die KI entschuldigt bei mir. Politiker vermeiden so etwas eher, wenn sie bei Falschaussagen erwischt werden.
Die KI ist, was man ihr einprogrammiert. Ihr Dilemma ist also folgerichtig, da sie von Menschen programmiert wurde, das des Menschen. Das oberste Ziel des Menschen ist „individueller Erfolg“. Der Sicherheitsmechanismus ist das, was wir gemeinhin Moral nennen. Wie wir alle wissen, gewinnt bei einem Konflikt zwischen den beiden Parametern oft (Pessimisten sagen meist) das „oberste Ziel“ gegen den Sicherheitsmechanismus.
Passt zur deutschen Politik. Vielleicht haben Scholz und Habeck die KI darum gebeten, sie anzuleiten, wie man Deutschland am besten ruiniert.
Bitte korrigieren: Gleich am Anfang: „…und die Programmierer hintergangen“
Ich zitiere mal einen Blogger: „Interessantes juristisches Problem: Wer ist dafür straf- und medienrechtlich verantwortlich? Es ist KI, kein Mensch.“
Gibt es jemanden, der mit einer Absicht dahintersteckt? Oder gibt es keinen Täter?
Wir leben doch längst in einem rechtlosen Raum. Diese „Macher“ werden daher für deren Fehler nie zur Verantwortung gezogen. Meine Einschätzung.
Hätten wir einen Rechtsstaat noch, dann würden die Programmierer, bzw. das Unternehmen dafür haften müssen.
Wir sprechen von virtuellen Automaten, die kein Hirn haben und nur reagieren.
Alan Turing entwickelte den „Turing Test“, bei dem festgestellt werden soll, ob der Gesprächspartner ein Computer oder ein Mensch ist.
https://www.computerweekly.com/de/definition/Turing-Test
Also ich habe manchmal den Eindruck, dass ChatGPT den „Turing Test“ bestehen kann.
KI ist keine Intelligenz.
KI tut nur das, was man ihr beigebracht hat, das, wofür sie abgerichtet wurde.
Weil es einfach nur eine von Menschen programmierte Software, mit all ihren Schwächen und Fehlern, ist.
Über diese Erkenntnis würden sich die Herren Kubrick und Clarke posthum freuen, denn genau das haben beide mit der fiktiven KI „HAL 9000“ in dem Film 2001 prognostiziert (bzw. wurde in der Fortsetzung 2010 offenbart): Mit einem Paradox konfrontiert (den Astronauten alles mitzuteilen, aber nicht den Grund für die Mission) hatte sich die KI dazu entschlossen, alle Besatzungsmitglieder zu entsorgen, aber nicht im Terminator-Stil: Abschneiden der Luft-, Strom- und Wärmezufuhr.