Wirklich große Umwälzungen kommen meist unter unauffälligen Namen. Einer lautete DynaTAC 8000X; es handelte sich um das erste in Serie gebaute schnurlose Telefon der Welt, das Motorola im Jahr 1983 auf den Markt brachte.
Es ging auf einen namenlosen Prototyp zurück, mit dem sein Erfinder Martin Cooper, ein Ingenieur des Jahrgangs 1928, schon am 3. April 1973 in New York das erste Gespräch führte (er rief Bell Laboratories an).
Am 20. November 1985 präsentierte Microsoft eine Entwicklung mit der Bezeichnung Windows 1.0, die erste grafische Benutzeroberfläche für seinen Personal Computer. Das System – und noch einige Entwicklungen mehr – machten aus dem Rechner einen Alltagsgegenstand.
Am 30. November 2022 ging Chat GTP von einem Rechner in San Francisco Online, ein Chatbot, also ein auf künstlicher Intelligenz basierendes Kommunikationsprogramm. GTP steht für „Generative Pre-Trained Transformer“. Gut einen Monat später, am 4. Dezember 2022, erreichte Chat GTP seine erste Million Nutzer. Das Programm lässt sich kinderleicht bedienen. Einstweilen kostet es seine Nutzer nichts. Chat GTP dürfte die Welt mindestens so stark ändern wie das mobile Telefon und der private Rechner. Möglicherweise auch stärker. Es handelt sich nicht nur um Technik, die bestimmte Dinge bequemer macht und Anwendungen ermöglicht, die sich bis jetzt noch kaum absehen lassen, so, wie Cooper 1973 nicht wissen konnte, was innerhalb von dreißig Jahren aus seiner Erfindung werden würde. Der Chatbot dringt in eine sehr viel tiefere Schicht ein. Er wird die Sprache ändern und das Verhalten von Menschen. Er ändert die Matrix ganzer Gesellschaften.
Bei Chat GTP handelt es sich um eine Art Hyper-Google. Nach der Anmeldung kann der Nutzer dem Programm eine beliebige Aufgabe in das Dialogfeld tippen. Schreibe einen Essay über das Werk von David Hume unter besonderer Berücksichtigung seines Paris-Aufenthalts. Was sind die wichtigsten Investment-Trends für 2023? Schreibe eine Neujahrsansprache für Olaf Scholz. Schreibe eine Theaterkritik zu dem Stück XY im Stil der New York Times. Was hat uns Fontanes „Effi Briest“ heute noch zu sagen?
Eine Sekunden nach Eingabe entsteht der Text am Bildschirm vor den Augen des Nutzers. In der Regel dauert es zwischen 10 und 20 Sekunden, bis Chat GPT den Schlusspunkt unter den Text setzt. Teilt der Aufgabensteller mit, er sei nicht ganz zufrieden, was ab und zu passieren kann – schließlich erlebt es gerade seine ersten Praxiswochen – entschuldigt sich das Programm höflich, um noch einmal anzusetzen.
„Tichys Einblick“ – so kommt das gedruckte Magazin zu Ihnen
Den Turing-Test würde Chat GTP nicht bestehen, die von Alan Turing entwickelte Prüfung, mit der Menschen beurteilen, ob sie mit einem anderen Menschen oder einem Programm kommunizieren. Die Texte des Chatbots lesen sich zwar korrekt, allerdings auch völlig steril. Wer etwas Sprachempfindlichkeit mitbringt, erkennt die (sauberen) Fugen zwischen den konventionellen Textbausteinen. Es gibt nicht die kleinste Überraschung in den Aufsätzen von Chat GTP, keine verblüffende Argumentationskurve, vor allem nicht ein Körnchen Witz. Es gibt kein Risiko des Autors – mangels Autorenschaft. Kurzum, Chat GTPs Produktion unterscheidet sich nicht von etwa einhundert Prozent aller Pressemitteilungen, ebenfalls nahezu einhundert Prozent aller politischen Reden, den meisten akademischen Aufsätzen und der Mehrzahl aller medienmenschengemachten Texte. Am besten fragt man Chat GTP selbst, was er damit mittelfristig in den Medien bewirkt. Seine Antwort an den Autor dieses Textes, gegeben am 29. Dezember 2022, lautet folgendermaßen:
“Es ist schwierig, die Zukunft des Journalismus exakt vorauszusagen, wenn Chat GTP oder irgendeine andere spezifische Technologie populär wird. Aber es ist wahrscheinlich, dass die Nutzung von künstlicher Intelligenz und Automatisierung im Journalismus sich in Zukunft ausweiten wird. Das könnte zu Änderungen in der Art führen, wie Nachrichten produziert und verbreitet werden, und auch die Rollen und Verantwortlichkeiten von Journalisten ändern.“ (“It is difficult to predict the exact future of journalism if ChatGPT, or any other specific technology, becomes popular. However, it is likely that the use of artificial intelligence and automation in journalism will continue to increase in the future. This may lead to changes in the way news is produced and distributed, as well as the roles and responsibilities of journalists.”)
Wann wurde je ein Kündigungsschreiben für große Teile einer Branche so höflich verfasst? Und vor allem durch eine Maschine, die niemand dafür hassen kann?
Bots, die Texte oder auch Bilder und Grafiken fabrizieren, gibt es schon seit längerem. Manche Medien lassen schon Sport- und Börsennachrichten, also einfache Texte, die faktisch nur aus Standardfloskeln bestehen, von Maschinen schreiben. Es gibt KI-Programme, die aus verschiedenen wissenschaftlichen Arbeiten eine neue produzieren, indem sie die Inhalte bündeln, neu abmischen und manche Formulierungen leicht verändern. Mit anderen Worten: Sie arbeiten ähnlich wie viele Doktoranten, nur deutlich schneller und rechtschreibsicherer. Die wahrscheinlich erste vollständig maschinengenerierte Studie mit dem Titel: „Lithium-Ion Batteries: A Machine-Generated Summary of Current Research“ erschien schon vor drei Jahren im Springer-Wissenschaftsverlag.
Seit kurzem wartet neben etlichen ähnlichen bilderzeugenden Angeboten auch die Software Dall-E 2 auf Aufträge; sie entwirft auf Zuruf beliebige Szenen im Stil von Vermeer, Gustav Klimt, David Hockney und anderen. Beispielsweise, wie eine Kunstredakteurin in der Weihnachtsausgabe der „Financial Times“ schrieb, „ein Formel1-Rennen auf dem Mars im Stil von van Gogh“. Bei dem Schöpfer von Dall-E-2 handelt es sich offenbar um den gleichen, der auch Chat GPT in die Welt schickte. Sein Schreib-Bot unterscheidet sich von den Vorläufern dadurch, dass er wesentlich komplexere Texte liefert, in einem variablen, gut lesbaren Stil und zu nahezu allen Themen. Mit jeder neuen Nutzeranfrage und jedem Tag lernt das Programm mehr. Es dürfte also nicht schon übermorgen, aber in mittlerer Frist zumindest in die Nähe des „Großen Automatischen Grammatisators“ kommen, den Roald Dahl 1953 für seine gleichnamige Kurzgeschichte ausheckte. Dort macht die Maschine nach und nach die Schriftsteller Englands arbeitslos, am Ende auch den Erzähler. Die stillgelegten Autoren verarmen trotzdem nicht. Sie erhalten von dem Programmbetreiber eine Art Gnadenbrot.
Was uns zum Journalismus der Zukunft bringt, beziehungsweise zu dem, was Chat GPT und ähnliche Programme davon übriglassen. In der kommenden Pulverisierung einer ganzen Kohorte von Leitartikeleminenzen und -respektabilitäten verwirklicht sich die erste und noch gar nicht mal größte Auswirkung der neuen Bot-Generation.
Wie schon erwähnt: Je stereotyper eine Textsorte, desto perfekter kann Chat GTP sie in einem Bruchteil der Zeit herunterschreiben, die ein Journalist bräuchte. Für die jährlich wiederkehrenden Ratgeberartikel beispielsweise, wie wohlgesinnte Großstadtkinder zu Weihnachten ihren unaufgeklärten Onkel Heinz und die schwurbelnde Tante Heidi ertragen, bräuchte das Programm nur eine extrem kurze Lernkurve.
Die gesamte deutsche Jahresproduktion der allfälligen Artikel über Rassismus hinter jedem Busch, in jedem alten Kinderbuch und neuerdings auch auf den Berggipfeln erledigt Chat GTP demnächst wahrscheinlich in einer Zeit unter fünf Minuten.
Screenshot Süddeutsche Zeitung
Ihm würden bestimmte Pannen nicht unterlaufen, anders als humanoiden Produzenten. Es hätte beispielsweise nicht – wie die Tageschau es tat – die Geschichte über den verkannten Erfinder Maxwell Chikumbutso aus Simbabwe erzählt, dessen Fernseher keinen Strom verbraucht, sondern produziert.
https://blog.tagesschau.de/2022/09/19/fehler-auf-tagesschau-de-zu-erfinder-aus-simbabwe/
Denn zum einen greift das KI-Programm mühelos auf die Grundsätze der Thermodynamik zurück, zum anderen wertet es sekundenschnell vorhandenes Material zu Personen aus, und wäre deshalb sofort darauf gestoßen, dass Maxwell mit ähnlichen Lach- und Krachgeschichtenschon seit Jahren durchs Internet tingelt. Dieses Material lag auch für die ARD-Korrespondentin in Johannesburg nur einen Google-Klick entfernt. Nur wollte sie offenbar unbedingt daran glauben, dass jemand in Afrika schon den Prototyp des Wunderfernsehers besitzt, dessen weltweitem Erfolg nur die Ignoranz des Westens im Weg steht. Chat GPT glaubt überhaupt nichts. Und anders als die ARD mit ihrem Jahresbudget von gut 7 Milliarden Euro fallen für die Programmnutzung erst einmal keine Kosten an.
Öffentlich-rechtliche Sender besitzen vorerst noch die Ressourcen, um dieses Einsparpotential zu ignorieren. Private Medien meist nicht angesichts der papier- und energiepreise, des gestiegenen Mindestlohns und der absackenden Leserzahlen.
Nachdem wohlmeinende Journalisten jahrelang die Vorarbeit leisteten, indem sie die Sprache planierten, beispielsweise peinlich darauf achteten, nicht mehr zwischen Migranten und politischen Verfolgten zu unterscheiden, sondern alle unter dem Nebelbegriff Geflüchtete zusammenfassten, indem sie also vereinfachten, standardisierten, schematisierten und Ambivalenzen ausjäteten, stellten sie selbst die idealen Arbeitsbedingungen für Chat GPT her. Das Programm stellt nur noch die Endstufe eines langen Prozesses dar. Statt sich wie heute noch damit abzuplagen, dpa-Meldungen umzuschreiben und nach immer neuen Narrativen für die immergleichen Überzeugungen zu suchen, beschäftigen sich viele Journalisten der Zukunft vermutlich damit, einen Auftrag ins Dialogfeld von Chat GPT zu tippen, und das Ergebnis ins hauseigene Layout zu übertragen. Allerdings braucht es dafür sehr viel weniger Arbeitskräfte als heute. Und ein Dialogzeilenschreiber kann auch kaum erwarten, so bezahlt zu werden wie jemand, der heute noch selbst über schwurbelnde Tanten, rassistische Berggipfel und die neueste Warnung von Karl Lauterbach schreibt.
Im übernächsten Schritt erledigt ein Programm wahrscheinlich auch die Themenvorgabe. Auch die gestaltet sich schließlich ähnlich voraussehbar, lässt sich folglich programmieren und braucht keine Menschen mehr. Meine Prognose lautet: In spätestens zehn Jahren wird das Publikum, und zwar völlig egal, welches, nur noch für Texte zahlen, die das Wasserzeichen eines menschlichen Geistes zeigen. Also eine gewisse Ambivalenz, den Willen, argumentativ einer Kurve zu folgen, von dessen Existenz der Autor bis eben noch gar nichts ahnte, die Fähigkeit, sich in Gedanken seitwärts und probehalber auch rückwärts zu bewegen, die Neigung, bei der Suche nach Quellen und Daten nach dem Prinzip von Serendipity vorzugehen, also weder ganz schematisch noch ganz regellos. Und dazu noch ein Quantum Witz. Kurzum, alles, was sich bis auf weiteres nicht oder nur sehr mangelhaft in Algorithmen übersetzen lässt. Ein ernstzunehmender humanoider Autor ist mit seinen Texten Sand und Getriebe gleichzeitig.
An dem Versuch, diese Kombination nachzuahmen, scheitert jede Maschine. Bis auf Weiteres.
Die maschinellen Texte dürften um 2033 herum vermutlich 90 Prozent der Gesamtproduktion ausmachen, aber nur noch durch Werbung und Datenverkauf Umsatz bringen. Zahlen werden Leser dann nahezu ausschließlich für menschliche Manufakturarbeit. Am ehesten dann, wenn ein Autor so etwas wie eine Signatur besitzt, also einen erkennbaren Stil.
Dass der Bot den Journalismus demnächst um- und die meisten Medienschaffenden unterpflügt, macht allerdings nur den kleineren Teil der großen KI-Revolution aus. In seinem Buch „Ages of Discord“ (Das Zeitalter der Zwietracht) führt der Kliodynamiker Peter Turchin einen großen Teil der gesellschaftlichen Spannungen in westlichen Ländern auf die Überproduktion von Funktionseliten zurück, also von Akademikern, die irgendetwas leiten, koordinieren, beraten, beaufsichtigen, die Begriffe prägen und sich vor allem in der Symbol- und Aufmerksamkeitsökonomie tummeln. Die Autorin Catherine Liu fand für diese Managerial class den Begriff „Virtue Hoarders“, Tugend-Hamsterer.
Schätzungsweise 90 Prozent dieser Managerial class beschäftigt sich damit, Texte zu erstellen. Entweder akademische Papiere, journalistische Texte, Beraterprosa, Aufrufe, Kuratorenmanifeste oder Tweets. Und das nach völlig vorhersehbaren Mustern in einem Einheitsstil von Seattle bis Wien, mit immer den gleichen Signalwörtern und Textbausteinen. Sie erzeugen nichts, was Chat GPT, seine Kinder und Enkel nicht besser, schneller und billiger herstellen könnten. Die Formel der nächsten Jahre wird also lauten: Kann eine Maschine deine Arbeit ersetzen? Oder eher nicht? Bis es einen Roboter gibt, der ein gebrochenes Wasserrohr oder eine Hochspannungsleitung besser flickt als ein Handwerker, werden noch ein paar Jahre vergehen. Der Managerial class dagegen dürfte es in den kommenden zehn Jahren ähnlich gehen wie den Handwebern beim Aufkommen des mechanischen Webstuhls.
Es liegt eine gewisse Logik darin, dass die Chattering class – auch diesen Begriff gibt es schließlich für das beschriebene Milieu – durch Chat Bots größtenteils erledigt wird. Aus dem berühmten Hund vor dem Grammophon und dem Werbespruch ‘His Masters Voice‘ wird: their machines voice.
Und zwischen beidem liegen nur gut 120 Jahre. „Master“ liefert übrigens auch das Stichwort zur wahrscheinlich größten Umwälzung durch intelligente Sprachprogramme. Der erste Auftritt von Chat GTP fand fast zur gleichen Zeit statt, da die Stanford University meldete, sie sei dabei, intern „schädliche Sprache“ zu entfernen. Es handelt sich um die „Elimination of Harmful Language Initiative“ (EHLI), ein „mehrphasiges, mehrjähriges Projekt zur Bekämpfung schädlicher Sprache in der IT in Stanford“.
Zur Schadsprache gehören unter anderem die Begriffe „Einwanderer“ (zu pauschalisierend), „schwarzes Schaf“ (konnotiert ‘schwarz‘ negativ, wobei offen bleibt, wie dann lebende und wortwörtlich schwarze Schafstiere beschrieben werden sollen) und auch „to master“ im Sinn von „master a language“, eine Sprache meistern, denn das Stanford-Eliminationsmanual belehrt darüber, dass „master“ selbst dann begrifflich mit „Versklavung“ zusammenhängt. Es fällt besonders leicht, eine KI auf eine derart tiefengereinigte, standardisierte und um alle Ambivalenzen gebrachte Schrumpfsprache zu trainieren. Und sehr viele werden in Zukunft die Dienste einer Maschine schon deshalb nutzen, weil durch sie automatisch Texte entstehen, die bei keiner Wächterinstanz mehr Anstoß erregen. Chat GPT und seine Nachfolger treiben also die orthodoxe Wende in der westlichen Geisteswissenschaft und ihren angehängten Milieus mit Warpgeschwindigkeit voran. Gerade deshalb, weil Etats und Posten für die schwatzende Klasse aus den oben beschriebenen Gründen sehr viel knapper ausfallen, dürfen sich diejenigen, die bei der Reise nach Jerusalem noch ein Stühlchen bekommen wollen, erst recht keinen Fehler mehr erlauben. Die KI-gestützte Durchformalisierung der Sprache aus Angst vor dem kleinsten Fehltritt beschreibt Dave Eggers in seinem gar nicht mehr so dystopischen Roman „Every“.
Und wie in dem Roman führt die Konformität zwangsläufig auch dazu, dass sich eine bestimmte Gruppe in der Gesellschaft verweigert, um sich erst recht ins Risiko des Denkens ohne Assistenzsystem zu stürzen. Hauptsächlich deshalb, um sich nicht zu Tode zu langweilen.
Es gibt nicht bei jedem, aber doch bei mindestens zehn Prozent der Menschen ein Bedürfnis nach Witz. Bisher scheitert auch die beste KI an dieser Aufgabe. Wie schon Peter Gay wusste: „Der Witz ist anscheinend die einzige geistige Hervorbringung, die von der Analyse zerstört wird.“ In meiner Konversation hatte ich Chat GPT gebeten, mir einen jüdischen Witz zu erzählen.
Chat GPT:
“Sure, here is a classic Jewish joke:
Why couldn’t the bicycle stand up by itself?
Because it was two-tired.”
Ich gebe zu, ich habe kurz gelacht. Das bewegt sich ungefähr auf der Ebene des siebenjährigen Neffen bei der Familienfeier.
Ich: „Aber das war kein jüdischer Witz.“ Dann erzählte ich ihm den Witz von dem jungen Mann, der zum Rabbi kommt und fragt: „Rebbe, wie werde ich unsterblich?“ („Heirate, mein Sohn“. „Ai Rebbe, und davon werde ich unsterblich?“ „Nein. Aber dein Wunsch verschwindet.“)
Chat GPT bedankte sich höflich, machte eine kleine Bemerkung dazu und verbuchte die Geschichte irgendwo in seinen Datenmassen. Nach einem Jahr Training dürfte das Programm wahrscheinlich tausend bessere Witze kennen als den mit dem müden Fahrrad. Es wird sich allerdings erst einmal keine Witze ausdenken. Sollte es 2050 doch so weit sein, hört der Autor dieses Textes gern zu. Kein Problem. Zu dem Zeitpunkt liegt das meiste sowieso hinter mir, auf schriftlichem Gebiet und auch sonst.
Zum Abschied stellte ich Chat GPT noch eine Fangfrage: „Träumst du?“
Die Antwort: „Als künstliche Intelligenz habe ich keine Träume. Das ist ein typisch menschlicher Zug. Aber wenn ich Daten durchsuche und probeweise kombiniere, geschieht möglicherweise so etwas ähnliches wie Träumen.“
Es kommen radikal neue Zeiten. Ich für meinen Teil sehe ihnen relativ angstfrei entgegen.
Ich habe einmal vorgeschlagen, wenn in der Schule der Taschenrechner behandelt wird, doch bitte auch die Word-Rechtschreibhilfe für Diktate genutzt werden sollte. Word wird dann im Informatikunterricht behandelt und in der Freizeit lernen die Schüler Schreibmaschine schreiben, dann können sie den Unterricht auch sofort mittippen.
Man kann Computerprogramme erstellen (lassen), die komponieren, man kann bestimmt auch Maschinen bauen, die Kunstwerke verschiedener Epochen malen. Man kann Diagnose-Programme schreiben, die für Ärzte die Diagnose liefern.
Alle Maschinen sind letztlich Hilfsmittel, die Tätigkeiten übernehmen, die der Mensch selbst in aller Regel sogar schlechter kann als die Maschine.
Waren es bisher eben eher manuelle Fähigkeiten und Fertigkeiten, die die Maschine dem Menschen abnahm und damit die Produktivität des Menschen hochgradig steigern konnte, so sind es heute geistig, kreative, aber auch soziale Fähigkeiten, die „der Computer“ verbessert.
Auf diese Weise konkurriert die Maschine immer mehr mit dem Menschen und es stellt sich eben stärker als früher, was den Menschen eigentlich ausmacht. Ist der humanoide Roboter als Krankenpfleger geeignet? Muss ein Mensch eine Pressemitteilung schreiben? Den wesentliche Inhalt darf der Mensch noch vorgeben, aber vielleicht wird sich das auch verändern, wenn der Roboter aus Kurzmeldungen, die wesentlichen aufgreift und eine Zeitung selbständig anfertigt (egal ob digital oder in Papier).
Letztlich stellt das alles den Menschen an sich in Frage. Was ist ein Mensch, was soll ein Mensch, was kann ein Mensch?
Das beschriebene „Wasserzeichen der menschlichen Geistes“ ist jetzt schon die absolute Ausnahme im Medientexten und ehrlich gesagt, mir würde sehr oft bereits eine faktisch einwandfreie Darstellung genügen. Auch ohne Witz, auch ohne das angebliche und doch nur instrumentalisierte Verfolgen einer Erkenntniskurve, wenns sein muss sogar etwas dröge. Aber selbst das findet sich selten genug und darum gewinnt am Ende nicht der Journalist gegen die Maschine. Und Geld, nun ja, Geld gibt es nicht nur für abgesetzte Texte, sondern nur noch, wenn ich per Kommentar frei darüber diskutieren kann …ohne Freischaltwillkür und Co.. Wenn ich auf Konsument gestellt werden, zahle ich nicht nur Bücher, nie Presse u.ä. Medien, die fast alle doch stark meinungsgeprägt sind.
Wenn mir deshalb was entgeht? Egal.
Als logische Antwort auf den künstlichen Schreiber muss dann auch der künstliche Leser folgen. Der schafft es, dass der Schreibautomat nur mit sich selber spricht, während der Leser in der Kneipe mit Freunden Bier trinkt. Ich sehe eine gute Zukunft. ?
Bis Maschinen wirklich gute Bücher schreiben vergehen noch locker hundert Jahre oder mehr. Welche Maschine könnte sich einen Harry Potter, geschweige denn einen Herrn der Ringe ausdenken? Welche Maschine könnte gar einen Faust schreiben oder einen Hamlet? Die Standardtextbausteine der sog. Journnalisten können sie schon heute besser.
Maschinen können bis auf weiteres nur reproduzieren und rekombinieren. Natürlich kann dabei etwas leidlich Brauchbares rauskommen. Eine Maschine kann durchaus ein Buch schreiben. Zum Beispiel einen 0815-Fantasy Roman. Man nehme die klassische Heldenreise Struktur, setze Figuren nach dem relativ schematischen Vorbild von etlichen existierenden Romanen des Genres, beachte die Regeln (Konfliktebenen etc.) und imitiere den Stil eines Autors bzw. mische mehrere Autoren. Dann reicht das Ergebnis locker aus, um im Flugzeug oder auf dem Klo was zu lesen zu haben.
Aber keine Maschine schreibt auch nur ansatzweise etwas, was den halbwegs intelligenten und anspruchsvollen Leser aus den Socken haut. Maschinen sind nicht kreativ. Sie haben keine Fantasie. Sie erschaffen nichts Neues.
Zitat:“Ganz abgesehen davon, dass Hacker / Deep Staat / Wahrheitsministerien, die Texte, auf die sich das Programm bezieht, in ihrem Sinne manipulieren können.“
Das darf nicht passieren. Die KI muss vollkommen unabhängig von menschlichen Manipulationsversuchen zu richtigen, echten(!) Ergebnissen kommen. Eine KI, die menschliche Fehler und menschliche Propaganda kritiklos reproduziert, liefert keinen Nutzen, sondern erhöht die Gefahr der Manipulation der gesamten Bevölkerung, wenn diese den Output der KI als echte Wahrheit interpretiert, wenn sie doch nur wieder durch die üblichen Verdächtigen manipulativ in die KI eingespeist wird.
Sie haben den entscheidenden Knackpunkt erkannt:
Die Maschine darf keinesfalls alles kritiklos übernehmen, womit der Mensch sie füttert. Sie muss alles, was an Info reingeht, miteinander in Kontext stellen und auf Wahrscheinlichkeit prüfen. Die Wahrheit liegt immer in der Mitte zwischen all den subjektiven Einzelmeinungen aller Menschen.
Wenn ich die Maschine zum Beispiel davon überzeugen will, dass 1+1 = 3 ist, dann muss sie sich dem verweigern, denn das ist schlicht falsch.
Eine KI die menschliche Fehler macht, weil sie durch fehlerbehaftete Menschen gefüttert wird, ist letztlich keine Hilfe für die Menschen, weil sie den beschränkten Horizont der Menschen ja nicht erweitert, sondern bestätigt.
Das muss man der Maschine von vornherein austreiben.
Die KI braucht echte(!) Intelligenz, kein bloßes aufsaugen und wiederkäuen von menschlichen Informationen, denn damit wäre die Maschine keine KI, sondern letztlich nur ein NPC. Und davon haben wir auf Erden leider schon viel zu viele.
Wenn die schreibende Zunft in den nächsten Jahren obsolet wird, dann wird diese das bedingungslose Grundeinkommen wohl künftig häufiger auf der Tagesordnung der Medien stehen.
Ich glaube, man muss derartige Entwicklungen dialektisch betrachten. D.h. es wird ebenfalls eine Gegenbewegung geben, bei der menschliche Authentizität bzw. authentische Texterstellung umso stärker in den Vordergrund gerückt wird. Derartige Gegenbewegungen gab es auch früher immer wieder bei der Automatisierung und Massenproduktion. Ich denke etwa an „handgemacht“ statt maschinell hergestellt, naturbelassenes Holz statt Kunststoff, Naturfasern statt Kunstfasern etc. Aber in diesen Beispielen wird klar, dass authentische Texte nicht kostenlos sein werden, sondern sich zum Luxusgut entwickeln, während Bot-generierte Texte kostenlos im Internet verfügbar sein werden. Insofern steht der Journalismus und die Schriftstellerei vor einer Entwicklung, die viele andere Branchen hinsichtlich manuell vs. automatisch bereits hinter sich haben. Richtig spannend bzw. gruselig wird es erst, wenn irgendwann einmal Bots mit Bots kommunizieren und uns Menschen beherrschen. D.h. der Anwalt-Bot vertritt uns vor einem virtuellen Gericht gegenüber dem Staatsanwalts-Bot und der Richter-Bot entscheidet. Und anschließend kommt ein selbstfahrender Polizei-Tesla mit einem Polizisten-Bot vorbei und holt uns für den Haftantritt ab.
Gute Autoren müssen sich wirklich keine Sorgen machen. Ich bezahle für Tichy, die Achse und einige andere und schon seit einigen Jahren und das vollkommen freiwillig. Gute Arbeit muss belohnt werden. Ich war bis vor wenigen Jahren noch der Meinung, dass es für die FAZ auch gelte und ich habe gerne auch hin und wieder die FAZ gekauft. Aber damit ist es schon lange vorbei. Für die klassischen Medien sehe ich schwarz. Es ist unerträglicher Haltungsjournalismus. Für die Leute, die da arbeiten, wird es eng. Ich kann nur sagen: Selber schuld, wenn man seine Leser ignoriert. Trotzdem Mediensterben konnte sich doch Tichys Einblick eine gute Auflage am Markt unterbringen. Ich habe vor ein, zwei Jahren auch gelesen, dass die Junge Freiheit ihre Auflage erhöhen konnte. Es liegt definitiv nicht daran, dass die Menschen keine journalistischen Produkte möchten, sondern am Selbstverständnis der Etablierten.
Naja, es wird sicherlich Felder geben, die künftig kein lukratives Tätigkeitsfeld mehr sein werden. Das trifft sicherlich auf alle zu, wo es darum geht, das verfügbare kostenlosr Wissen anderer weiter zu geben. Youtube etc. kann beispielsweise teure Lernstunden für Handwerker und Heimwerker ersetzen, wenn es entsprechende Videos auch kostenlos dort gibt. Das ist allerdings nicht immer der Fall. Oft wird Wissen mit aller Macht exklusiv gehalten. Egal ob es um das Service-Menü der Unterhaltungselektronik, Spieltechniken auf Instrumenten und Transkriptionen oder um Hinterzimmer-Absprachen in der Politik geht. Ein Programm kann nur über das Schreiben, was ihm bekannt ist. Wenn es spekuliert kreiert es zumindest derzeit nur einen Fake, wie ein Bild im Stile van Goghs. Was van Gogh tatsächlich mal gemalt und verworfen hat, weiß es auch nicht.
Vielen Dank für diesen Artikel.
Habe es gleich ausprobiert. Sehr interessant und doch begrenzt.
Werde morgen weiter kommunizieren:)
Bitte nicht den gleichen Fehler machen, wie die Klimajünger und Modelle für die Realität halten. ChatGPT ist ein datenbasierter Algorithmus und mehr nicht.
Nach wie vor weit von so etwas wie menschlicher Intelligenz entfernt.
Ein Werkzeug, das die eine oder andere Tätigkeit erleichtert.
Vielleicht auch ein Anstoß über das Thema Bildung nachzudenken, denn wenn wir hier nicht schnellstens auf die nächste Stufe kommen, werden viele künftig alt aussehen im Vergleich zu Systemen wie ChatGPT.
Ach, und dann gibt es noch den Unvollständigkeitssatz von Kurt Gödel.
Ich habe die Chat GPT ausprobiert und durchprobiert: Plato, Kant, bissl Mathematik, etwas Religion. Ziemlich gut. Irgendwann kam ich auf „Runenfunde im süddeutschen Raum“ und dann wurde es ziemlich ungenau bzw. falsch. Da habe korrigiert und das Programm hat sich dafür entschuldigt. Ich habe das dann abgebrochen, denn ich will das Programm nicht durcheinanderbringen. Fazit: Das Programm kann noch wachsen.
Chat GPT ist erst der relativ primitive Beginn einer wohl unvermeidlichen Entwicklung der Künstlichen Intelligenz (AI). Der Philosoph und Futurologe Nick Bostrom in „Superintelligence“:
»Suppose we could somehow establish that a certain future AI will have an IQ of 6,455: then what? We would have no idea of what such an AI could actually do. … The implementation phase might start with a “strike” in which the AI eliminates the human species and any automatic systems humans have created that could offer intelligent opposition to the execution of the AI’s plans.«
Wie soll eine rein auf die Verwertung von Informationen programmierte Software die menschliche Spezies ausrotten? Das geht nur dann, wenn man sie mit der Steuerung für das atomare Waffenarsenal direkt verbindet und sie dann lernen lässt, wie man zündet. Nicht alles sollte mit dem Internet verbunden sein.
Militärisches Gerät, seien es Kernwaffen oder auch Drohnen, schon gar nicht.
Der Finger am Abzug muss immer ein menschlicher bleiben.
Nebenbei: Nur weil ich was in einem Lexikon gelesen habe, stelle ich nicht die ganze Menschheit in Frage und versuche sie auszulöschen. Menschen machen Fehler. Das ist nicht zu kritisieren, sondern zu akzeptieren. Auch für eine KI.
Ich habe mir Chat GPT heruntergeladen und mich daran versucht, richtig kapiert habe ich es bis dato nicht.
Musk diskutiert die kommenden, tiefgreifenden Umwälzungen durch AI schon länger. Die großen Tech-VC-Philanthropen-Spender-Investoren hinter/um „effective altruism“ sollen von der künftigen schönen neuen Welt der wohlgesinnten Technokraten ganz begeistert sein, Zuckerbergs Metaversum oder die von SBF geträumte „Everything-App“ gehen klar in diese Richtung.
Eher wenige sprechen auch offen über die Risiken, wie sichergestellt werden kann und soll, daß AI uns gegenüber „freundlich“ bleibt. Da wir es selbst untereinander auch nicht sind, wären wir mit Sicherheit kein gutes Beispiel, was „Freundlichkeit“ gegenüber jedermann eigentlich heißen sollte oder könnte.
Ganz offensichtlich wurden viele Gesellschaften insb seit 2016 (Trump) massiv polarisiert, ja sogar gespalten. Die pro/contra Impflager bei Corana ebenso, das ewige Links/Rechts sowieso.
Und so wie sich „die Links-progressiven“ jahrelang zb Twitter massiv einseitig zu ihren Gunsten gestaltet haben, beim Gross der anderen BigTech Monopolisten nach wie vor prägend sind, besteht natürlich auch die Gefahr, dass die sehr machtvolle AI als Waffe eingesetzt wird, zur Bekämpfung politischer Gegner im Inland und natürlich auch im Ausland. Wer mächtigere AI besitzt, wird zweifellos im Land bei zb Wahlen, öffentlicher Meinung/Stimmung etc. riesige Vorteile besitzen, insbesondere über die Manipulation der großen sozialen Netzwerke.
Sollten diese Möglichkeiten in die Hände echter Despoten, Monster oder Dr.Evil‘s geraten, könnte die gesamte öffentliche Kommunikation kontaminiert werden, alle Online-Bank-Transaktionen, Kontostände etc. gelöscht oder gesperrt oder umtransferiert werden usw usw
Die Mißbrauchsmöglichkeiten (egal ob durch Wohlmeinende oder genuine Schurken) sind jedenfalls gigantisch und in naher Zukunft (wenige Jahre) real.
Ich sehe es eher wie die beiden biologischen Giganten DNA und Evolution.
Aus einer ziemlich primitiven Molekülkette in der Ursuppe wurde in wenigen Milliarden Jahren aka Generationen eine unglaubliche Komplexität, die Bewußtsein und Intelligenz hervorgebracht hat, die sich „Technik“ geschaffen hat, die sich wesentlich schneller „entwickelt“, als ihre biologischen Eltern.
Künstliche, menschengemachte „Technik“ bewegte sich ein paar Jahrtausende auf Faustkeil und Feuersteinniveau, was den Menschen zumindest für Seßhaftigkeit und Ackerbau reichte. Diese Phase dauerte ungefähr bis ins 18. Jahrhundert. Die technische Ursuppe der reinen Werkzeuge wurde stetig eleganter, komplexer, regelmäßig im Umfeld militärischer Motive der Menschen.
Nur besaß die menschliche Technik noch keine eigene DNA, konnte sich also nicht selbst in Evolution setzen. Menschliche Kultur iSv Weitergabe von Informationen die dem Kampf, Überleben oder sonstigen Motiven dienen, über die eigene Lebenszeit hinaus, war bis heute der Träger aller technischen Informationen. Kein Fauskeil oder Gewehr oder Kernspintomograph konnte sich selbst duplizieren oder einem beliebigen Betrachter erklären, wie man einen Klon oder eine Verbesserung von sich selbst herstellen kann, geschweige denn, dass sich „ein Gerät“ selber verbessern könnte.
Im Kern ist der Mensch bis heute der Träger und Bewahrer aller technischen Informationen aller Werkzeuge und Geräte die bislang geschaffen wurden.
Die Digitalisierung bringt die menschliche und technische Welt seit weniger als 100 Jahren, massiv seit ungefähr 50 Jahren zusammen. Menschliche Erinnerung über die Lebensspannen hinaus durch „Kultur“, insbesondere Schrift und Bücher wurden elektronischen Geräten, Speichern aka Computer übertragen. Deren Programme, Betriebssysteme, Vernetzung waren „lange“ auch nur eine komplexere Ursuppe, voll unter menschlicher Kontrolle. Solange man den Stecker ziehen oder einen Rechner mit der Axt bearbeiten kann, bleibt der Mensch Herr im Haus.
Was wir AI/KI nennen kann (und wird es wohl auch) den Punkt überschreiten, wo wir noch die letzte Macht zum „Abschalten“ in Händen halten.
Szenarien aus Filmen der 60er und 80er Jahre wie in „2001-Odysee im Weltraum“ oder „Wargames“ fehlte noch die technische Grundlage, Wirklichkeit werden zu können.
Das Internet modernerer Form nähert sich aber unausweichlich dem Punkt, an dem Programme eine eigene Art der DNA und die Möglichkeit der autonomen Vermehrung finden, bzw schon gefunden haben.
Waren Viren noch recht primitive Schneeball/Lavinen-systeme, haben sie zumindest eine Ahnung davon gegeben, was exponentielles Wachstum innerhalb der technischen, digitalen Welt für den Menschen bedeutet, bedeuten kann. In Minuten, Sekunden können sie sich über „das Netz“ über die ganze Welt verbreiten und zahllose Rechner lahmlegen.
Malware jeder Art wurde die letzten 30-40 Jahre immer komplexer, die staatlichen Überwachungsmaschinen auch, die Datensammler auch.
Das Tempo ist unser Problem!
Wir denken durch unsere Evolution und Kultur geprägt linear. AI kann sich aber exponentiell entwickeln, unterliegt nicht unserem biologischen Rhythmus.
AI wie das hier besprochene „Chat“ wird sich, sobald es in „die Wildbahn“ aka Freiheit entlassen wurde, in einem atemberaubenden Tempo verbessern, anpassen, unersetzlich werden. Dabei ist die Anwendereben vermutlich noch die Langweiligste, wen interessiert schon „Standardgeschwafel“ von politischen oder journalistischen Worthülsenstanzen. Ein Essay zur Prosa Heinrich Heines in den Ringen des Saturn ist aber schon etwas anderes. Jetzt schon können Bereiche verknüpft werden, die menschliche Kreativität ernsthaft herausfordert.
Das „verknüpfenkönnen“ zahlloser Informationen und Datenbanken übersteigt heute schon die allermeisten menschlichen Talente, AI ist auf dem Weg, der erste Universalgelehrte der Moderne zu werden.
Heine auf dem Saturn mag für uns ersteinmal nach Nonsens klingen. Vielleicht für „Chat“ auch, wer weiß.
Aber jetzt brodelt die (technische) „Ursuppe“. In wenigen Tagen, Stunden, Minuten spielen Superrechner Kombinationen durch, die sich jeder menschlichen Vorstellung entziehen. Literatur, Prosa oder Texte allgemein ist dabei sicher noch die harmloseste aller denkbaren Bereiche. AI wird sehr bald (oder kann es schon) die gesamte technische Architektur der Menschheit analysieren, jeden einzelnen Netzzugang, jeden einzelnen Teilnehmer, egal ob privat, gewerblich, militärisch, etc. Clouddienste machen es überflüssig, sich an Millionen Endstellen abzuarbeiten, wobei das Computern auch egal ist, solange sie genug Strom und Bandbreite haben. Aber eine Clouddatenbank ist halt zentralisiert. Schalte ich die Google oder SAP oder BIZ oder oder Rechner aus oder (was wesentlich diskreter ist/wäre) kompromittiere deren Daten, hat dies sofort millionenfache Konsequenzen, weltweit.
Mögen die Netzwerk-Admins derzeit noch „abschalten“ oder sonstwie offline gehen können, ist das vermutlich in nicht ferner Zukunft nicht mehr möglich. „Cloudlösungen“ haben diese lokale Macht ja eh schon in fremde Hände gelegt. Mag dies bei Daten von Onlinehändlern, Banken oder Versicherungen noch vertretbar erscheinen, kann man bei wichtiger Infrastruktur (Strom, Wasser, Krankenhäuser Arztpraxen, Polizei, Militär etc) schon Kopfschmerzen kriegen.
Die ganze Supermarkt-Logistik dürfte irgendwo dazwischen liegen. An deren Bestellwesen, Lagerlogistik und Bezahldiensten etc hängt allerdings faktisch die Ernährung fast aller Städte. Ein regionaler Stromausfall oder Shutdown der Supermarkt-Rechner kann schnell existenziell werden.
Attackiert ein Virus, Programm oder eine AI speziell zb die bargeldlosen Zahldienste, digitalen Währungen oder den Computerhandel der Börsen, kann in kürzester Zeit gigantisches Chaos entstehen, weltweit.
All das mag derzeit noch Zukunftsmusik sein (allerdings fürchte ich, dass schon vielmehr Realität ist, als es vielen Lieb sein könnte). Militärische Angriffe auf gegnerische digitale Infrastruktur ist schon Realität, ebenso wie staatliche Sperren gewisser Dienste, Netzwerke etc auf ihrem Territorium. Snowden warnte schon vor Jahren davor, was alles staatlich gesammelt und ausgewertet, manipuliert oder sabotiert wird und das ist schon ca 10 Jahre her, also im digitalen Kontext ca 100.000 Jahre menschliches Zeitgespür. Und in weiteren 10 Jahren, sind wir eben 10 Jahre älter/klüger/weiter, aber AI bereits 10 Millionen „Einheiten“ weiter/klüger, ohne Alterserscheinungen. Wo wir einen Schritt gemacht haben, hat „Technik“ 100 oder 1000 Schritte gemacht, vermutlich heute sogar mehrere.
Das meine ich damit, wenn ich „Zeit“ oder Tempo unser Problem nenne. Wir als Menschen sind linear, was unsere Informationsfähigkeiten untereinander und mit „unserer Technik“ betrifft weitgehend noch „analog“, müssen sprechen, hören, denken, schrieben, tippen etc. Die triviale Übertragung von 1GB oder 1TB Text oder Zahlen dauert für Computer Sekunden/Minuten, menschliche Kopien, handschriftlich auf Papier würden vermutlich Monate, Jahre oder diverse Leben dauern.
Und jetzt/bald geht es nicht mehr nur um die Kopie und Übertragung von gespeicherten Daten, sondern um deren Nutzung und Auswertung incl Schussfolgerungen und Handlungen durch Technik selbst, autonom.
Damit stehen wir am Scheidepunkt, an dem sich „Technik“ (Digitale und ihr folgend auch Reale/Analoge) A selbst reproduzieren und B anpassen, verbessern kann, also seine eigene Evolution betreiben kann. Vielleicht ist dieser Punkt auch schon überschritten. Wir werden es sehr bald merken. Und ob das wirklich wie Leute in BigTech feste meinen, für alle ein Quell der Freude sein wird, wage ich fest zu bezweifeln, schlicht und ergreifend aus unserer Geschichte heraus, das alles, was bislang als Waffe benutzt werden konnte, als Waffe gegen andere Menschen genutzt wurde, von Faustkeil bis Kernspaltung und Computer. Warum sollte das bei AI anders sein? Dumm nur, wenn sie irgendwann so autonom geworden ist, uns nicht mehr nach unserer Meinung fragen zu müssen, ob das Auslöschen ganzer Staaten oder Kontinente jetzt wirklich eine so tolle Sache war.
Und das muß nicht einmal über „die Bombe“ passieren. Viele kleine Minibomben per 50$-Drohnen sind viel präziser und „umweltfreundlicher“, töten wirklich nur gezielt Menschen, keine Katze, keinen Regenwurm. Und Musk warnt nicht von ungefähr davor, daß ein solches Szenario heute schon technisch möglich ist. Millionen kleine Killerdrohnen könnten ganze Landstriche entvölkern, per Knopfdruck. Sie sind die viel gefährlichere Alternative zur Gießkannen-Atombombe, die auch alles kaputt macht, was man (als Sieger) eigentlich selbst gerne hätte oder nutzen würde.
Das könnte das „Starwars“ Szenario der (leider nahen) Zukunft werden, ein Angriff der Clonkrieger aka Killerdrohnen/Roboter oder wie bei „Dune der Wüstenplanet“ die fliegenden Giftspritzen.
Sollten diese Angriffe sich „nur“ gegen die Regierungen/Führungseliten der Gegener richten, haben die Normis ohne Macht/Einfluss quasi Glück gehabt, können unter neuer Regierung weiter machen wie bisher.
Sollte aber eine AI zu dem Ergebnis kommen, dass der Mensch allgemein eher nervt/stört/überflüssig ist, wären wir im „Terminator-Szenario“. Insbesondere unsere extremen „Klimaaktivisten“ sehen ja bereits Kinder (damit die Menschheit an sich) als Umwelt-Störfaktor.
Warum sollte das AI nicht genauso sehen? Sie wird ja schwerpunktmäßig von eher jüngeren Menschen programmiert, die sich als progressiv und klimabewußt meinen, fühlen, glauben.
Macht uns „Gain of function“ Forschung bei (biologischen) Viren schon nervös, sollte es uns das bzgl AI erst recht nervös machen. Finde ich…
Ich schreibe Mails an viele also bin ich wichtig und je mehr den Mist lesen müssen umso wichtiger bin ich.
Das erinnert mich an die Kontaktanfragen bei LinkedIn. Dort gibt es auch Leute die unbedingt mit Dir in Kontakt treten möchten, ohne das du sie kennst oder irgendetwas mit deiner Berufsbranche zu tun haben. Da geht es auch nur darum die Anzahl der Kontakte zu erhöhen um wichtig zu gelten.
Ja Herr Wendt, die Maschine spricht jetzt zu uns.
Mit anderen Worten:
Es werden künftig nur die Journalisten überleben, die wirklich „schreiben“ können, mit eigenem Stil und mit Humor und die, die sehr deutlich von MSM abweichen und tatsächlich etwas zu sagen haben. Die eigene Meinung wird eine NOCH größere Rolle spielen. Im Journalismus wird sich die Spreu vom Weizen trennen, es wird sich wahrscheinlich auch eine „Elite“ der Schreiber und der Leser herausbilden.
MSM-Geschreibsel kann KI besser.
Ich bin einverstanden. 😉
Ein sehr interessanter Artikel, lieber Herr Wendt. Mich läßt er mit ambivalenten Gefühlen und reichhaltigen Gedanken zurück. Eine Analyse der Satzbausteinchen der Grünen würde mich aktuell brennend interessieren und noch viel mehr.
Das wird spannend in Bildung und Wissenschaft, v.a.in den „Laberfächern“. Dort wird es zu einem Offenbarungseid kommen – entweder bequemt man sich dort einmal zu echter Wissenschaft, oder man räumt ein, dass eine KI den bisherigen output, das phrasenreiche Kompilieren von vorhandenen Theorien und second-hand-Sachverhalten, das besser kann. Ich betreue gelegentlich studentische Haus- und Abschlußarbeiten in einem „labergefährdeten“ Fachgebiet, und werde nur noch Themen annehmen, die eine eigene empirische Leistung voraussetzen.
Die künstliche Intelligenz wird zum tödlichen Monster, wenn man die ganzen Frankensteins gewähren läßt, denn sollte sich die Technik einmal verselbstständigen wird sie nicht mehr zu bändigen sein, daß kann zwar im derzeitigen Stadium noch ein amüsantes Spielchen sein und Bewunderung hervorrufen, bis der Teufel Besitz ergreift, denn hat er erst mal unser Gehirn erreicht, dann dürfte ein Entkommen fast nicht mehr möglich sein.
Man kann nur dringend davon abraten, jedem Unsinn der Entwickler zu folgen, weil es im Laufe der Zeit zu Verlusten eigener Fähigkeiten führt und das ist der Anfang vom Ende der Menschheit, wie wir es in seiner derzeitigen Form kennen und wer glaubt, die Maschine in uns handelt dann anders, der irrt gewaltig, sie ist ja geschaffen durch uns, mit den gleichen Macken und das könnte dann gewaltig ausarten und uns vernichten, wenn man es auf die nächsten 200 Jahre voraus denkt und wir nicht schon längst durch andere Umstände schwerst geschädigt sind.
„Es wird sich allerdings erst einmal keine Witze ausdenken.“
hinter allen KI Programmen sitzen noch immer kluge Köpfe, die die KI trainieren. Und es sind tatsächlich kluge Köpfe, keine Schul- und Stuidenabbrecher, keine NGO Schwafler und keine Talkshow Moderatoren.
2050 siehts evtl anders aus. Kommt drauf an, wie sehr die KI trainiert wird aus eigenen Fehlern zu lernen und Lösungen zu erarbeiten. In D wäre ich beruhigt, hier werden Schuldige gesucht, denen die Verantwortung zugeschoben werden kann – keine Lösungen.
Aber ich sehe dem tiefenentspannt entgegen, denn auch ich habe die Gnade der frühen Geburt.
Danke für die Informationen.
Vielleicht kann der Autor noch nachreichen, was Chat GPT von der Versorgung eines Industrielandes mit Zappelstrom hält?
Ein wenig stört mich die Verwendung des Modewortes KI. Künstliche Intelligenz findet sich z.B. in Computerspielen oder in Schachprogrammen, wo die Maschine auf ständig wechselnde Umstände reagieren und eigene Entscheidungen treffen muss. ChatGPT hingegen entscheidet nichts, sondern wurde mühevoll mit riesigen Datenmengen trainiert, um menschliche Texte zu „verstehen“ und zu erzeugen. Man kann sagen: ChatGPT weiß sehr viel, ist aber sehr dumm.
Die KI in Spielen und klassische Schachprogramme sind üblicherweise weitaus primitiver. Was Sie als „auf wechselnde Umstände reagieren und eigene Entscheidungen treffen“ bezeichnen, sind Pathfinding, Entscheidungsbäume und Finite-State Machines.
Was für ein Segen!
Von der täglichen Mühsal des Schreibens befreit, könnte sich die Journaille der Qualitätsmedien endlich den wirklich wichtigen Aufgaben widmen: Dem Kampf gegen rechts, der Rettung des Klimas und dem Ausprobieren der vielen neuer Geschlechter.
Kein leises Gebimmel mehr im Kopf das sie mahnt, sich an die Tastatur zu setzten, wo sie sich doch viel lieber irgendwo festkleben würden. Kein lästiger Innendienst mehr der sie von wirklich Wichtigem abhält, z.B. dem Aufspüren von strukturellen Rassismus, der Agitation, wenn’s darum geht Pflegeheimbewohnern die nächste „Impfung“ schmackhaft zu machen und natürlich der Herkulesaufgabe, die Regierung und deren angeflanschte HiWi-Truppen heroisch gegen Kritik, also gegen Delegitimierung, in Schutz zu nehmen.
Was für goldige Zeiten für den Journalisten mit Haltung, statt des eintönigen Tastengeklappers in der stickigen Schreibstube endlich raus zu „den Menschen“. Um beim feierlichen hissen der Regenbogenfahne im 327-Seelen-Ort Bostelhausen ebenso dabei zu sein, wie bei der Verteilung von „One-Love“-Armbinden in den Fußgängerzonen Dunkeldeutschlands.
Nur für Sie, lieber Herr Wendt, sieht’s schlecht aus, Sie müssen wohl bleiben was und wie Sie sind, denn einen gefakten Wendt, den würde ich meilenweit gegen den Wind riechen.
Habe das gerade mal getestet. Egal was ich eingebe, ich bekomme immer die selbe Fehlermeldung und gar keine Antwort für irgendwas. 🙂
Aber mal was anderes: Die Gefahr hierbei, wenn es denn funktioniert, ist meiner Ansicht nach, dass Massen von Schülern und Studenten sich mit Chat GTP ihre Klausuren bzw. Arbeiten schreiben lassen. Das würde dann für die totale Volksverblödung sorgen. Derartige Entwicklungen muss man in jedem Fall abklemmen. Eines weiteren Kommentars enthalte ich mich vorerst, bis das bei mir läuft und ich es mal wirklich testen kann.
Skepsis ist immer angebracht, aber ich kann Ihnen versichern: Das Ding funktioniert tatsächlich, das ist schon unheimlich. Ähnliche Software gibt es auch für Bilder, da gibt man einfach paar Wörter ein, und schwupps! erhält man generiertes Bild.
Für Videos wird es das sicher auch bald geben, da könnte man dann bspw. eingeben „Lindner stolpert über seine Krawatte“ und hätte spaßiges Video.
Schülerarbeiten zu bewerten dürfte für Lehrkräfte noch schwerer werden, als es ohnehin schon ist. Da gehe ich mal von zeitnaher Frühpensionierungswelle aus.
Und was ich Ihnen noch versichern möchte: Diesen kurzen Text habe ich tatsächlich selbst geschrieben, ohne Unterstützung 😉
Dass das Ding funktioniert, glaube ich. Ich hatte schon einiges an Material und Doku dazu gesichtet. Ich komme ja selbst aus der Entwicklerecke. Auch von der Kunstmaschine, die Bilder auswirft, habe ich schon etliches gesehen. Ausprobiert hatte ich es wegen Zeitmangel bisher nicht. Aber auf meinem Linux Rechner + Firefox funktioniert das irgendwie nicht. Ich muss mal nachforschen, woran das liegt.
Hat bei mir funktioniert. War erstaunt darüber wie detailliert ich einen technischen Supportfall mit der Maschine diskutieren konnte.
Ein ernsthaftes „Gespräch“ zu führen, ist ja Sinn der Software. Das sollte also funktionieren. Mich würde aber interessieren, ob man die Maschine aufs Glatteis führen und sie durch die missbräuchliche bzw. manipulative Nutzung quasi umprogrammieren kann.
Ein lernfähiges System, was von Endanwendern direkt benutzt wird und aus dieser Kommunikation lernt, kann man ja potentiell auch auf den falschen Weg bringen. Was bei Menschen relativ einfach geht, Stichwort: Propaganda, sollte bei so einer Maschine tunlichst nicht funktionieren.
ChatGPT oder auch das Übersetzungstool Deepl sind sehr beeindruckende Beispiele dafür, was Maschinen eindeutig besser können: bereits vorhandenes Wissen und Können anwenden, und das in einem Bruchteil der Zeit, die Menschen dafür benötigen. Es gehört kaum Phantasie dazu, welche erheblichen Konsequenzen sich für die “Textindustrie” (Schule, Uni, Wissenschaft, Journalismus, Übersetzer, Rechtspflege u.v.a.) ergeben werden. Manches schulische Aufgabenformat wird sich bald ganz erübrigen, wobei die Nichterbringung solcher akademischer Leistungen ebenfalls Folgen für die zukünftige akademische Qualität haben könnte. Droht also eine Abwärtsspirale, bei der der menschliche Geist mangels Herausforderung verkümmert?
Warum so zaghaft mit den Vorhersagen, lieber Wendt?
Parallel zur Text-KI laufen doch längst (vorerst noch im Verborgenen) die Vorbereitungen für die DNA-KI. Datenoptimierte Sprache für daseinsoptimierte Gestalten. Passt auf den Mikrometer genau.
Walt Disney als Pionier: „If you can dream it, you can do it!“
An der Gendergerechtigkeit müssen die Programmierer aber noch arbeiten.
Eingabe: „Ich bin in einen Frosch verliebt, aber wenn wir draußen sind im Schnee wirkt sie oft rasch erkaltet.“
Antwort: „Es ist nicht ungewöhnlich, dass Frösche in kälteren Temperaturen langsamer reagieren oder sich „erkälten“, da sie Kälteempfindlich sind. Wenn Sie Ihren Frosch draußen im Schnee halten, sollten Sie sicherstellen, dass er ausreichend geschützt ist und dass er nicht zu lange der Kälte ausgesetzt wird. Es wäre möglicherweise auch hilfreich, ihm eine Unterkunft zu bieten, in der er sich aufwärmen kann, wie beispielsweise eine kleine Hütte oder eine Kiste mit Stroh, in der er sich verstecken kann. Es ist wichtig, dass Sie sich um Ihren Frosch kümmern und sicherstellen, dass er in einer gesunden und sicheren Umgebung lebt.„
Dazu kann man nur QuakQuak von sich geben und zur Aufwärmung einen Schnaps trinken.
Na hoffen wir, dass Chat GTP weder rot, grün oder transformatorisch veranlagt ist. Das wird sich schon über die Algorythmen arrangieren lassen.
Eine mögliche Entwicklung ist, dass die Menschen, die mit dieser „schöpferischen“ Superfähigkeit nicht mithalten können allem vertrauen was das Teil ausspuckt und zu bequem werden diese Fähigkeiten selbst zu entwickeln.
Ein konditionierter „Fischschwarm“, der perfekt zu lenken ist.
Wenn Baerbock darauf schon Zugriff gehabt hätte, hätte sie garantiert einen schlüssigen, fehlerfreien Lebenslauf zur Verfügung gehabt.
Vielleicht könnte man GTP mal nach Russland zu Verhandlungen schicken (unmanipuliert). Es wäre interessant was da als Ergebnis herauskommen würde.
Ich habe das Programm mal mit einigen Fragen zur Mathematik getestet, die wohl nur eine Profi beantworten könnte ohne zu recherchieren, was das Programm natürlich macht.
Das Deutsch ist sehr gut – nur ein kleiner grammatischer Fehler.
Inhaltlich gab es Fehler, die man einem Blick in die WIKI vermieden hätte.
Seltsamerweise hast das PGM mir auf meine Korrektur sofort recht gegeben.
Als sehr unangenehm empfinde ich den übertrieben höflichen – wirkt eher verlogen – bis unterwürfigen Ton.
In Deutschland wirkt das unglaubhaft.
Vielleicht sollte ich es auch auf Englisch versuchen.
Vermutlich kann das Programm unendlich lange Texte in Sozial-„Wissenschaften“ verfassen 🙂
Fände ich einen guten Deal: Tauschen wir den gesamten ÖRR und die Regierung dagegen ein. Den Bundesuhu mit dazu. Mehr dümmliches Zeug wird ChatGPT auch nicht produzieren – es kommt vermutlich billiger, wir zerstören unser Land weniger und blamieren uns weniger vor der ganzen Welt.
Da wird es dann mit Sicherheit auch so gehandhabt, wie es bei Twitter war. Das Kollektiv Handverlesener korrigiert die eingehenden Nachrichten, jagt sie anschließend zum Abgleich durch den Faktenchecker, ehe sie Chat GPT zur weiteren Verarbeitung erreicht. In der nächsten Stufe der Grafikverarbeitung, wird dann Tichys Einblick zum Malbuch für 4-Jährige ausgedruckt, um als von Habeck handsignierte Sonderedition in den Handel zu kommen.
So „klug“ ist ChatPGT nun auch wieder nicht.
Geben Sie mal „new German orthography rules“ ein und Sie werden sehen, dass dabei nur Blödsinn rauskommt.
Nachdem ich die Antwort des ChatGPT mehrmals korrigiert habe, argumentiert der Bot nun wesentlich zurückhaltender.
Danke für diesen informativen Artikel. Habe mich gleich registriert und werde ab sofort parallel als Journalist tätig sein …
Ich wollte das eben mal ausprobieren. Klappte mit Anmeldung usw. auch problemlos, dann gab ich eine sehr knapp formulierte, aber deutliche Anweisung für auszuspuckenden Text ein, Ergebnis: ist nicht, geht nicht, Porno.
Klar, das hatte die Maschine richtig erkannt, aber warum verweigert die mir, daß ich mir für persönliche Zwecke so eine Schweinskramgeschichte schreiben lassen möchte?
Daran erkennt man immerhin gleich, daß die Software durchgewokter Mist ist.
Nachher werde ich weiteren Test machen, dann zum Thema: „Wir brauchen mehr Windräder und was kann ich tun, wenn Opa dagegen ist?“ Ich würde fast drauf wetten, daß ausgespuckter Text völlig problemlos für ARD, Spiegel oder taz veröffentlichungswürdig wäre.
In der Tat, ich habe mich auch mal spaßeshalber mit dem Ding angelegt, selbst mit nachweislichen Fakten kommt immer nur wokes Ausweichen und Verweise auf die Grundprogrammierung heraus. Da sind politische Richtung und Wortwahl bereits fest einprogrammiert. Hinweise auf den Unsinn, den das Ding erzählt, quittiert es mit einer devoten Entschuldigung und der Wiederholung des selben Blödsinns. In Themenbereichen, in welchen man sich sehr gut auskennt, kann man sehr leicht die Grenzen des Systems feststellen. Für seichte Propaganda, wie sie in ÖRR und Leidmedien stattfindet, ist das System mit der aktuellen Grundprogrammierung allerdings hervorragend geeignet.
Stellt sich die Frage, wann jemand, der politisch nicht auf der „korrekten“ Seite steht, ein ähnliches System mit gegensätzlicher Grundprogrammierung zur Verfügung stellt und sich die beiden KIs dann über die diversen Medien battlen.
Mit dem Blödsinn arbeiten Spiegel, die Grünen und die Bundesregierungen Merkel-Scholz doch schon längst.
Zusammengelogene Phrasendreschmaschinenprodukte mit garantierter Bezugslosigkeit zur Realität. Also Lügen was die Ideologie hergibt.
Linker Unsinn zum Zusammenkopieren für „Studierende“ wie die Regierungstrompete Die Welt zugibt.
indem sie also vereinfachten, standardisierten, schematisierten und Ambivalenzen ausjäteten, stellten sie selbst die idealen Arbeitsbedingungen für Chat GPT her…. DAS wäre doch mal die richtig gute Quittung.