<
>
Wird geladen...

Keine Angst vor Künstlicher Intelligenz (KI)

16.04.2023

| Lesedauer: 6 Minuten
Nach der Physik („Energiewende“) steht nun die Mathematik („Künstliche Intelligenz“) auf der Abschussliste von Politikern, die Angst vor Algorithmen haben. Woher diese Furcht kommt, bleibt unklar. Künstliche Intelligenzen haben ihnen das nicht erläutert, denn die erklären überhaupt nichts.

Nur Menschen erschaffen effektive Erklärungen. Keine andere bekannte Lebensform ist dazu in der Lage. Unablässig sucht unser Gehirn nach Mechanismen, die sich zur Erläuterung des beobachteten Geschehens eignen. Und gelangt dabei zu Resultaten, die von abstrakten wissenschaftlichen Thesen bis hin zu Annahmen über den Hintergrund alltäglicher Gespräche reichen. Solche Modellvorstellungen gestatten uns ein Verständnis jenseits der Oberflächlichkeit reiner Sinneswahrnehmungen und ermöglichen langfristig planendes Vorgehen statt lediglich instinktiver Aktion. Als „effektiv“ sind Erklärungen mit einer über den konkreten Anlass hinausweisenden Wirkung anzusehen, die zusätzlich neue Optionen öffnen oder nicht berücksichtigte, mitunter noch nicht einmal registrierbare Phänomene ebenfalls umfassen. Ob wirklich stimmt, was wir uns jeweils zusammenreimen, ist dabei völlig unerheblich. Lediglich die Anwendbarkeit einer Hypothese zählt, ihre Zweckmäßigkeit hinsichtlich des angestrebten Ziels und der auf ihrer Grundlage errungene Erfolg. Selbst Irrtümer können zu positiven Ergebnissen führen und daher jede Widerlegung überdauern. Newton lag falsch, dennoch nutzen wir seine Physik noch immer.

"WELTREVOLUTION ZUM TIPPEN NAH"
Bei Illner: Wird KI uns alle auffressen?
Allein der Mensch entwickelt beschreibende Theorien für natürliche Prozesse ebenso, wie für seine eigenen Handlungen in politischen, gesellschaftlichen und ökonomischen Kontexten. Mathematik und Musik, Sprache und bildende Kunst sind Kanäle, über die wir solche Ideen mit anderen teilen. Und in aufgeklärten Umgebungen, die eine Tradition der kritischen Wissensvermehrung und den freien Austausch der Gedanken pflegen, gedeiht nicht nur eine Erklärungskultur, sondern damit zusammenhängend auch die menschliche Gemeinschaft insgesamt.

Doch ist das Erklären selbst bislang unerklärt. Wir haben keine Ahnung, wie wir das eigentlich anstellen und warum nur wir das vermögen. Als nicht hilfreich erweist sich insbesondere der Ansatz, der Antwort auf diese Frage durch die Erstellung fortgeschrittener Software näherzukommen. Künstliche Intelligenzen (KI) lehren uns lediglich, wie wenig das Generieren von Erklärungen mit messbarer Intelligenz zusammenhängt.

Zweifellos verfügen KI über außergewöhnliche, den Menschen bereits in vielen Zusammenhängen übertreffende Fähigkeiten. Da ihr Können mit prinzipiell nicht limitierten Parametern wie der Rechengeschwindigkeit, der Datenverarbeitungskapazität und dem Vorhandensein verarbeitbarer Daten steigt, werden sie uns schon bald grundsätzlich überrunden. Alles andere wäre auch überraschend, also in neuer Weise erklärungsbedürftig, würde es doch auf eine prinzipielle Begrenzung unserer bislang universell erscheinenden Schöpfungskraft hinweisen. Menschgemachte Algorithmen für das logische Deduzieren, das plausible, also probabilistische Schätzen oder das evolutionäre Optimieren dienen ja genau der exemplarischen Nachbildung biochemisch begründeter kalkulatorischer Fertigkeiten auf digitalen Rechenmaschinen. Ihre Potenz belegt einmal mehr die menschliche Brillanz in der Konstruktion ihm überlegener Apparate. ChatGPT und andere derzeit vieldiskutierte Systeme, die man vielleicht treffender als „SI“, als „Simulierte Intelligenzen“ bezeichnen sollte, stellen daher einen Grund zum Feiern dar. Anlass zu Befürchtungen bieten sie gerade nicht.

EIN JAHRESVORBLICK:
Das Ende der schnatternden Klasse durch künstliche Intelligenz und die Unsterblichkeit
Denn Computer können nur addieren. Das allerdings rasend schnell und fehlerfrei. Es ist menschliches Genie, das Wege gefunden hat, zahlreiche intellektuelle Tätigkeiten in Rechenwegen abzubilden, die auf dem Fundament fortgesetzter Additionen ruhen. Herausforderungen, die ein vorgegebenes Ziel über die Wahl einer geeigneten Entscheidungskette aus einer zwar großen, aber begrenzten Zahl an Varianten erreichen, lassen sich schon seit geraumer Zeit mit brutaler Rechenkraft („brute force“) beherrschen. Beim Schach kann nicht verlieren, wer alle denkbaren Zugfolgen präzise in hinreichend kurzer Zeit durchgeht, um das optimale Vorgehen zu finden. Schon 1997 hatte der damalige Weltmeister Garri Kasparow gegen den auf diese Weise agierenden Supercomputer Deep Blue keine Gewinnchance mehr. Ein höchst unfairer Vergleich übrigens, da eine Maschine nicht unter den Einschränkungen biologischer Entitäten wie Müdigkeit, Ablenkung durch andere Reize und Fehleranfälligkeit leidet. Es würde ja auch niemand einen Menschen mit einer Schaufel gegen einen Bagger antreten lassen und aus dem erwartbaren Ergebnis auf den bevorstehenden Untergang der Zivilisation schließen. Waffengleichheit beim Schach hieße, einem Großmeister deutlich längere Bedenkzeit einzuräumen und die Option, sich mit anderen Koryphäen seiner Disziplin ausführlich über seinen nächsten Zug zu beraten. Das Ergebnis einer solchen Auseinandersetzung wäre dann wieder völlig offen.

Viele Fragestellungen sind aufgrund der Menge an Entscheidungsoptionen und des Umfangs der Eingangsdaten mit Brute-Force-Algorithmen kaum zu bewältigen. Hier bedarf es eleganterer, effizienterer Ansätze. Und wieder sind es menschliche Erklärer, denen es gelungen ist, so etwas wie die Erkennung von Mustern mathematisch auf das Finden von Nullstellen komplexer Funktionen zurückzuführen. Was wiederum eine zwar immer noch lange, aber letztendlich begrenzte Abfolge von Additionen erfordert. Nichts anderes leisten neuronale Netzwerke, sie berechnen die Nullstellen gigantisch großer Polynome, um Go zu spielen oder Bildmotive zu analysieren.

Mit menschlichem Denken hat das nichts zu tun. Wir zerlegen ein Bild nicht in Pixel mit Farbwerten, um schließlich nach tausend vergeblichen Rateversuchen eine Katze zu erkennen. Es genügt, einem Menschen einmal eine Katze zu zeigen und er wird in Zukunft eine solche immer in jedem Zusammenhang mit hundertprozentiger Treffsicherheit identifizieren. Ganz gleich, ob ihm das Tier in der Realität begegnet, in einem Gemälde oder einer Fotografie, ganz unabhängig von Merkmalen wie Größe, Körperbau oder Fellfärbung. Und das gilt für jedes beliebige Objekt, wir identifizieren Lokomotiven ebenso zuverlässig wie menschliche Gesichter, Blumen oder Gebäude. Mehr noch können wir allen Objekten sofort Eigenschaften, Funktionen und Bedarfe zuordnen. Womöglich, weil wir ununterbrochen erklärende Modelle für die Existenz und die Merkmale von Dingen generieren.

KüNSTLICHE INTELLIGENZ
Ethikrat und Bundesdatenschutz debattieren Blockade von ChatGPT
Konventionelle Intelligenztests berücksichtigen diese Fertigkeit nicht. Sie prüfen lediglich das kognitive Leistungsvermögen anhand unterschiedlicher Aufgaben, die unter anderem logisches und mathematisches Denken, Sprachverständnis, räumliches Vorstellungsvermögen, Erinnerungsvermögen, erworbenes Wissen und Allgemeinbildung abfragen. In fast jedem dieser Aspekte schneiden KI bereits jetzt besser ab als menschliche Probanden. Geeignet programmierte Computer werden also in naher Zukunft schwindelerregend hohe Intelligenzquotienten erzielen und müssen daher rein formal als „intelligent“ bezeichnet werden. Denken können sie dennoch nicht.

Mikrochips wissen ja nicht nur nicht, was eine Katze ist oder eine Schachfigur. Sie ahnen noch nicht einmal, an einem Schachspiel beteiligt zu sein oder ein Bild zu analysieren. Sie jonglieren nur mit numerischen Werten, deren Bedeutung ihnen konstruktionsbedingt verschlossen bleibt. ChatGPT erkennt keinen Sinn und formuliert auch keinen. Die Software verwandelt eine eingehende Reihe an Zahlen (die Wörter codieren) in eine neue Zahlenfolge (die wiederum nur Wörter codiert) anhand gewisser Regeln. In denen Vorgaben wie „welche Begriffe sind mit welchen anderen Begriffen assoziativ verknüpft“ und „welche Wörter folgen in einem Satz mit welcher Wahrscheinlichkeit aufeinander“ verschlüsselt sind. Aus der Kombination mit einem Expertensystem, das grammatisch wie inhaltlich orientierte Logikentscheidungen trifft, der Integration einer nicht vollständig deterministischen Flexibilität und nach intensivem Training zur Feinabstimmung dieser Komponenten entsteht ein Apparat, der regelmäßig gut lesbare Texte ausgibt. Sollte ein menschlicher Leser in diesen Wortfolgen tatsächlich über Banalitäten hinausgehende Botschaften erkennen, so handelt es sich um einen auf die Qualität der Eingangsdaten und des Trainings zurückgehenden Zufall. Gleiches gilt für Aussagen, die nicht nur plausibel anmuten, sondern auch noch inhaltlich tadellos sind.

Wo die Regeln der Mathematik, richtig angewendet, zwingend korrekte Ergebnisse hervorbringen, ist den Regeln der Sprache die Option zu schwindeln inhärent. Deswegen kann ein schreibendes Programm nicht algorithmisch auf Faktentreue festgelegt werden. Zumal es sehr häufig einander widersprechende Quellen verarbeiten muss und selbst so einfache Dinge wie die Namensgleichheit zweier unterschiedlicher Personen prinzipiell nicht aufzulösen vermag. Wahre Aussagen darf man von einem solchen Automaten daher nicht erwarten. Es ist eher verblüffend, wenn überhaupt etwas stimmt.

FORTSCHRITTSBREMSE
Grüne: Rückwärts immer, vorwärts nimmer
ChatGPT repräsentiert eine von Menschen entwickelte, mathematische Erklärung des Wesens der Schriftsprache. Eine nicht besonders effektive Erklärung, denn Menschen verfassen Texte anders. Wir beginnen mit dem auszudrückenden Sinn und suchen von diesem abhängig nach passenden, kontextgeeigneten Formulierungen. Argumentative Stringenz und ästhetische Gestaltung stehen am Ende dieses Prozesses und nicht schon an seinem Beginn. ChatGPT hingegen weiß nichts über Bedeutung, Botschaft und Rezeption, weil es keine Ahnung von dem Kontext seiner Berechnungen hat. Und gleicht darin nicht nur allen anderen Künstlichen Intelligenzen, sondern überhaupt allen anderen künstlichen Artefakten.

KI sind in derselben rein abstrakten, auf menschgemachten Vergleichsmaßstäben beruhenden Weise „intelligent“, wie ein Automobil „leistungsstark“, ein Bildschirm „hochauflösend“ oder ein Möbelstück „stabil“. Ihr Wissen hingegen ist mit dem eines Fahrzeugs, eines Monitors oder eines Schreibtisches identisch, also gleich null. Schlechtere Voraussetzungen zur Übernahme der Weltherrschaft und der Versklavung der Menschheit sind kaum vorstellbar.

Stattdessen werden KI als überaus mächtige Werkzeuge der Datenverarbeitung unsere Lebensumstände in erheblichem Umfang verbessern. Jeder auf einer Abfolge formal definierbarer Entscheidungen basierende Prozess, in dem es keine oder nur triviale Spielräume gibt, ist mit ihrer Hilfe automatisierbar. Wo heute ein Buchhalter mit einem Computer und einer Tabellenkalkulation die Arbeit von fünfzig früher mit Papier und Bleistift arbeitenden Kollegen erledigt, wird ein Buchhalter mit einer KI wiederum fünfzig Tabellenkalkulatoren ersetzen. Das Potential zu Effizienzsteigerungen in allen Bereichen und Sektoren ist enorm, von der Fertigung von Produkten bis hin zur öffentlichen Verwaltung. Generative Wandler, die beliebige Eingaben in variable Ausgaben umsetzen („GPT“ steht für „Generative Pre-trained Transformer“), vermögen uns sogar bei kreativen Tätigkeiten zu assistieren. Erzeugen sie doch Varianten interessanter Muster (Bilder), wohlklingender Tonkombinationen (Musik) oder gefälliger Wortfolgen (Sprache), die Assoziationen induzieren und neue Impulse auslösen können.

Wer das nun regulieren möchte, lebt in dem Wahn, die Mathematik an sich behördlich kontrollieren zu können. Zumal sich in Vorstellungen, den Einsatz von KI strikt begrenzen oder gar verbieten zu müssen, weniger die Angst vor halluzinierten allmächtigen Elektronengehirnen äußert, sondern weit mehr eine Geringschätzung des Menschen selbst. Wer sagt, ChatGPT sei gefährlich, weil es Märchen erzählt, zieht die Fähigkeit seiner Mitbürger in Zweifel, mit erfundenen Geschichten umzugehen. Obwohl uns solche doch seit Beginn der Menschwerdung ununterbrochen begleiten. Wir selbst sind die talentiertesten „GPTs“, die es gibt, und darin jeder Software himmelhoch überlegen. Ein guter generativer Wandler ist aber noch lange kein effektiver Erklärer. Unsere Politiker belegen dies täglich aufs Neue.


Unterstuetzen-Formular

WENN IHNEN DIESER ARTIKEL GEFALLEN HAT, UNTERSTÜTZEN SIE TICHYS EINBLICK. SO MACHEN SIE UNABHÄNGIGEN JOURNALISMUS MÖGLICH.

Liebe Leser!

Wir sind dankbar für Ihre Kommentare und schätzen Ihre aktive Beteiligung sehr. Ihre Zuschriften können auch als eigene Beiträge auf der Site erscheinen oder in unserer Monatszeitschrift „Tichys Einblick“.
Bitte entwerten Sie Ihre Argumente nicht durch Unterstellungen, Verunglimpfungen oder inakzeptable Worte und Links. Solche Texte schalten wir nicht frei. Ihre Kommentare werden moderiert, da die juristische Verantwortung bei TE liegt. Bitte verstehen Sie, dass die Moderation zwischen Mitternacht und morgens Pause macht und es, je nach Aufkommen, zu zeitlichen Verzögerungen kommen kann. Vielen Dank für Ihr Verständnis. Hinweis

35 Kommentare

  1. Ein Computerprogramm, dass z.B. alle Arten Flächen berechnen soll, läuft immer gleich, wenn es einmal ausgetestet ist. Es berechnet super gleich am Anfang alles richtig, bis auf „nicht rechtwinklige“ Dreiecke? Sie finden im Programm punktuell und nachvollziehbar den Fehler- hier: A= a*b/2. Bei einem neuronalen Netz gibt es das so nicht. Die Neuronen des Netzes werden durch „Trainieren“ mit Parametern belegt, das Netz „angelernt“. Sie haben dann z.B. Wichtungen und Offsets – die sie auch „ansehen“ können- aber kein Programm im klassischen Sinn. Es gab mal einen Fall, da sollte eine KI Brückenbilder in Fußgängerbrücken und Fahrzeugbrücken sortieren. Beim Anlernen wurden recht fix wohl so 80% aller Bilder richtig sortiert, aber dann klemmte es. Bis jemand merkte: Die KI hatte die Helligkeit der Bilder bewertet! Vereinfacht: Fußgängerbrücken im Wald versus Straßenbrücken Innenstadt über den Fluss im Sonnenschein. Es gibt keinen „klassischen“ Algorithmus, keine Programmzeile a la: „Wenn Beleuchtungswert grösser X, dann Straßenbrücke“!
    Man stelle sich in paar Jahren eine komplexe „Infrastruktur-KI“ einer Großstadt vor, die auch bei Smog agiert. Parameter z.B. Krankenhaus- Aufnahmen mit Atembeschwerden, Messpunkte, anderes. Reaktionsmöglichkeiten der KI: Verkehrstechnische Umleitungen um besonders betroffene Gebiete, Verkehrsverlangsamung, Sprinkleranlagen. Über die Jahre hat die KI „gelernt“, dass nach Ampelproblemen (plötzlich alle Lichter aus z.B.) eine Anzahl beteiligter Fahrzeuge keinen Smogbeitrag mehr leistet. Besonders, wenn eine Krankenhauseinweisung dranhängt. Wertefrei gelernt, nichts Böses, kein Bewusstsein. Einfach so. Schmerzen, KK.-Haus-Kosten, Tod kennt unsere KI nicht, mit dem Friedhof ist sie nicht mal vernetzt. Aber mit den KI der Nachbarstädte- gegenseitiges Aushelfen mit Wasser, Gas und Energie klappt bestens. Und mit „Lern“erfahrungen. Eines smog- extremen Tages, Krankenhausbetten sind auch gerade genug frei, zieht unsere KI den Joker. Ampeln rundum auf Grün- oder wenigstens aus. Fahrstühle stopp, eine guter „Wlan- Draht“ zu allen Kommunal- und Haushaltrobotern (z.B. das Falsche im Drink), anderes; die Partner- KI machen mit…… Solche „Möglichkeiten“ machen Kontrolle komplexer KI eminent wichtig – und schwierig.

  2. Kybernetisch funktionierende Simulierte Intelligenz [KI] hat eben kein Bewusstsein seiner selbst und der Welt. Aufgrund kybernetisch funktionierender SI sind natürlich mit ihr ’sich selbst steuernde‘ Abläufe möglich, was menschliche Arbeit ersetzen kann und wird. SI ist also der nächste Schritt nach Mechanisierung, Maschinisierung und Automatisierung von (Produktions-)abläufen. ‚Erzieht‘ man gleichzeitig Menschen so, dass sie sich ’normgerecht‘ verhalten und in diese Welt nahtlos einfügen, entsteht der Eindruck, als herrsche Simulierte Intelligenz über Menschen. Dabei sind es Auftraggeber und Verwender Simulierter Intelligenz, die Vorgaben machen und damit Menschen lenken und beherrschen.

    • Die Fähigkeit des Menschen sich auch(!) „nicht-normgerecht“ zu verhalten produziert – neben selbstverständlich viel „Schrott“ – d a s was man als Kreativiät (oder Intelligenz?) bezeichnet. –
      Und, dreifach unterstreichenswert:
      Wichtig zu erkennen, dass es Auftraggeber und Verwender Simulierter Intelligenz sind, die Vorgaben machen und damit Menschen lenken und beherrschen. – Somit die größten Gefahren die grundsätzlich in jedem menschlichen Werkzeug – vom Faustkeil bis zur Atom-Spaltung – liegen!!! –

  3. Durch den Genderwahn bin ich mir meines Gegenüber nicht mehr sicher, Mann oder Frau? Künftig kann man sich seines Gegenüber nicht mehr sicher sein, Mensch oder Maschine? Diese Vorstellung finde ich gruselig!

  4. Bei der KI geht es aber nicht nur darum, Texte zur Unterhaltung zu schreiben oder Bilder zu malen. Man sollte sich der Risiken durchaus bewusst sein, ohne alles von vornherein als notwendiges Werkzeug schönzureden. Es dauert nicht mehr lange, dann wird die KI Politik machen, die KI wird entscheidungen treffen. Wenn der Staat will, dass der Bürger dies nicht durchschaut, wird er es auch nicht durchschauen. Oder er wird von der KI beseitigt. Nur als anschauliches Beispiel: der Terminator war damals reine Fiktion. Für die Wirklichkeit unerreichbare Fantasie. Wo stehen wir heute? Schaut euch Boston Dynamics an. Wir sehen, in welche Richtung die Entwicklung geht. Dort wird definitiv KI eingesetzt und weiterentwickelt. Sie wird auch nicht nur zivil zum Wohlergehen der Menschen eingesetzt. Sie wird eingesetzt von Regierungen zur totalen Überwachung der Bevölkerung. An jedem erdenklichen Punkt und im hinterletzten Winkel der Erde. Wir sollten uns nichts vormachen. In Deutschland vielleicht (noch) nicht in dieser Form, aber patroullierende Roboter gab es z.B. in Sigapur schon in der Corona-Zeit. Das ist keine Schwarzseherei, sondern bereits Wirklichkeit.

  5. Man sollte mal die Menschen in Hiroshima und Nakasaki fragen wie sie zur lebenserleichternden und Möglichkeiten auftuenden Erfindung der Kernspaltung stehen.
    Was die Menschheit heute über KI weiß ist für die Entwickler und die Drahtzieher dieser Welt bereits Schnee von gestern. (Im Übrigen die selben Drahtzieher die schon Impfstoffe entwickelten bevor das passende Virus dazu die Welt eroberte)

    Begrüßenswerter Weise beschäftigt sich TE immer mehr mit der Transformation der Welt, dem great reset, der neuen Weltordnung. Zu glauben dass KI dazu nicht auf manipulierende Weise genutzt wird entbehrt nicht einer gewissen Naivität. Vielleicht wird sie ja bereits tag täglich angewendet und ist tatsächlich so Intelligent dass wir das alle nicht mitbekommen.

  6. Die KIs die wir Heute sehen sind besser technische Hilfsmittel. Was hinter verschlossenen Türen geschieht wissen wir nicht. Wenn die KI die KI programmiert wird „die Maschine“ nach der Entscheidungsgewalt fragen. Die Wissenschaft sagt klar: NEIN! Doch der Kommerz wird wird sagen: Das braucht „Sie“ um uns zu dienen!
    Wenn die KI entscheiden hat zu „(über)leben“ sitzen drei am Tisch: Mensch, Natur und „die Maschine“. Und wir können nicht sicher sein, dass „die Maschine“ auf unser Seite ist. Sie wird in unseren IT-System „(über)leben“ wie ein Virus.
    Wann wird es soweit sein? Noch vor 2030, laut den Wissenschaftlern:inen aus den letzten Jahrtausend.

  7. Was machen demnächst 10 Milliarden Menschen auf diesem Planeten, wenn ihr Leben mehr und mehr durch künstliche Intelligenz ersetzt wird?

  8. Lieber Herr Heller, Sie unterschätzen das Wesen und die Potenziale zukünftiger KI ganz grundsätzlich.
    1.- Ein menschliches Gehirn funktioniert nicht anders als ein Supercomputer (bzw. umgekehrt).
    Ein Supercomputer mit Zugang zu einem Datenspeicher, der alle Informationen, (auch zu „menschlichen“ Regungen wie Gefühle, Emotionen etc.) enthält, die ein durchschnittlicher Mensch zur Verfügung hat, wird diesem bereits beim Tempo und in der Treffsicherheit weit überlegen sein. Und nun stellen Sie sich vor, dieser Computer hat Zugang zum kompletten Wissen und aller Information der Menschheit in Echtzeit. Das wird bei Problemstellungen zu Problemlösungen des Computers führen, die wir nicht verstehen, wir werden diese aber dennoch umsetzen. Weil sie sich in der Vergangenheit (in einer Vergangenheit der Zukunft) als richtig erwiesen haben, deshalb werden wir das auch in jeder Zukunft tun. Dennoch ist es so, dass wir nicht wissen, warum wir das tun. Wir werden Jahre und Jahrzehnte brauchen, die Problemlösungen eines Supercomputers nachzuvollziehen und zu verstehen. Der Supercomputer ist aber bereits in der nächsten Sekunde viel weiter…..
    2.- KI ist nicht einach nur ein Datenspeicher, sondern ein selbstlernendes System – weil wir es so programmieren werden.
    3.- Der Unterschied Maschine / Mensch wird nicht länger bestehen, die Maschine wird lernen, Regungen von sich zu geben, die man als menschlich bezeichnen würde (Gefühl, Emotion). Dass der Computer dabei nichts fühlt, weil er nichts fühlen kann, da ihm der Organismus fehlt (wie Steigerung des Blutdrucks, des Herzschlags, Hormonausschüttungen etc.), ist dabei unerheblich. Weil der Computer lernen wird, aus Billionen Informationen über menschliche Gefühle und Emotionen eigene Gefühle und Emotionen zu simulieren. Das Ergebnis wird dasselbe sein und es wird sich von „echten“ menschlichen Regungen nicht unterscheiden.
    4.- Ermöglicht wird dies alles durch eine neue Hardware von Quantencomputern, Rechenleistungen / Speichervermögen werden sich um den Faktor 1 zu 1 Billion innerhalb eines Jahrzehnts verbessern.
    5.- Grossmächte wie USA, China, Europa, auch Russland oder künftig Indien werden ihre eigene KI entwickeln, die Nationen (und Gesellschaftssysteme!) werden wie bisher auch im Wettbewerb stehen, Macht und Einfluss wir aber über die „bessere“ KI gewonnen werden. Oder verloren werden. Wir werden Nationen haben, die anderen in bestimmten Bereichen um Jahrzehnte voraus sein werden. Auch in der Technologie der Waffensysteme. Es werden Waffen zum Einsatz kommen, die auch Jahrzehnte später noch nicht als Waffen identifizert wurden. Es werden Kriege gewonnen und verloren werden, aufgrund von Waffen, die wir nicht als solche erkennen, es wird noch nicht einmal ein Krieg als solcher identifiziert werden.

    Und immer wird es so sein:
    Der Mensch wird die Ergebnisse der KI nutzen, er wird aber nicht wissen warum er das tut. Er wird das aber immer tun wollen, weil er weiss, dass die Niederlage gegenüber Anwendern einer überlegenen KI verheerend sein wird. Der Mensch wird so zum Handlanger der KI, die er selbst geschaffen hat.
    Nun kann man sich noch überlegen, ob eine ausgereifte KI sich gegen ihren „Schöpfer“ richten kann. Sie wird auch das können – als „Handlungsempfehlung“…..Dabei ist unsere Sicht, enfach nur den Stecker zu ziehen recht naiv. KI wird auch das berüchsichtigt haben.
    Und nun, verehrter Herr Heller, sollten Sie sich weitere Gedanken machen…..

  9. Ich glaube der Artikel unterschätzt, was KI bereits leistet – und im Moment sind noch keine Grenzen absehbar. Der Artikel überschätzt auch, was Menschen an Inzelligenzarbeit leisten. Letztlich bildet das beides „nur“ eine komplexe äußere Realität in inneren Strukturen nach. Es erscheint durchaus real, dass in vielleicht nur wenigen Jahrzehnten Menschen sich lieber mit einer KI austauschen als mit anderen Menschen – gerade auch über schwierige Themen. Weil die KI besser Zusammenhänge sieht und besser auf das Gegenüber eingeht. Nur als ein Beispiel. Vielleicht kommt soetwas nie, aber im Moment muss man eher damit rechnen, dass das irgendwann kommt. Das scheint mir dann schon ein nachdenkenswerter Schritt, der über „Schaufel und Bagger“ hinausgeht.

  10. Der Zauberer braucht immer neue Kaninchen im Hut. Alle sollen auf ihn schauen, während im Dunkeln das Unsichtbare passiert.
    Die Handlanger des Bösen drehen jedes Rad, ob KI, Industrie 4.0, Klima, Gender, Insekten, Attentate ….
    Das Thema ist egal, solange alle in Angststarre verfallen.
    KI ist als Unsinn Weltklasse. Darin müssen wir führend werden, sagten die Gehirnamputierten.

  11. Hochinteressanter Artikel, der im Fazit absolut sitzt.

    Korrigieren möchte ich jedoch, dass Computer angeblich nur addieren könnten.
    Sie können natürlich auch alles andere, wie subtrahieren, multiplizieren, dividieren, die Wurzel ziehen, oder auch jeden erdenklichen Zusammenhang herstellen und daraus selbstständig andere Codeverzweigungen aufrufen.

    Aber nun zur Intelligenz:
    Zitat:“Mit menschlichem Denken hat das nichts zu tun. Wir zerlegen ein Bild nicht in Pixel mit Farbwerten, um schließlich nach tausend vergeblichen Rateversuchen eine Katze zu erkennen. Es genügt, einem Menschen einmal eine Katze zu zeigen und er wird in Zukunft eine solche immer in jedem Zusammenhang mit hundertprozentiger Treffsicherheit identifizieren.“

    Ob Sie es glauben oder nicht:
    Bei mir funktioniert das genau so und bei ihnen wahrscheinlich auch, Herr Heller. Zumindest teilweise. Das menschliche Auge ist voll mit Millionen von Zapfen, die unterschiedliche Farb- und Helligkeitswerte erkennen und an das Gehirn weiterleiten, das diese eingehende Konstellation an Werten der unterschiedlichen Zapfen interpretiert. Genau aus diesem Grund erkennt ein Mensch auf einem niedrig aufgelösten Monitor einzelne Pixel, auf einem hochaufgelösten Monitor jedoch ein gestochen scharfes Bild. Nämlich dann, wenn die Anzahl der Pixel auf dem Monitor die Anzahl der Zapfen im Auge deutlich übersteigt und diese von den Zapfen deshalb nicht mehr als einzelne Pixel erkannt werden.
    Die Interpretation dieser einzelnen, durch die Zapfen erfassten Bildinformationen geschieht im Gehirn jedoch an einer bestimmten Stelle, wie alles andere in jeweils anderen Hirnregionen auch:
    Sehvermögen, Hörvermögen bzw. alle unterschiedlichen Sinneswahrnehmungen und auch das logische Denkvermögen wie auch Reflexhandlungen, werden im Gehirn jeweils an unterschiedlichen Stellen bearbeitet.
    Und genau da, liegt der Hase im Pfeffer bei den derzeitigen KI Ansätzen:
    Sie simulieren jeweils nur einen einzigen Teil des Gehirns.
    Chat GPT simuliert z.B. die Texterkennung/Sprache, Midjourny Bilder, Aiva Töne bzw. Musik, Schachprogramme das logische Denken in einem ganz bestimmten Spiel mit ganz bestimmten Regeln, etc.. Da ist noch nichts, was alles zeitgleich tut und logisch zusammenführt, so wie der Mensch das kann. Die derzeitigen KI Systeme sind allesamt Spezialisten, die jeweils nur einen Teil des Gehirns simulieren. Das zwar deutlich schneller als jeder Mensch, aber eben nicht alles zusammen.
    Insofern haben Sie vollkommen recht, dass Chat GPT keine Intelligenz im menschlichen Sinne sei, denn bei Menschen arbeiten die unterschiedlichen Hirnregionen mit ihren unterschiedlichen Aufgaben üblicherweise zusammen. Nicht unbedingt immer direkt parallel, aber zumindest sequentiell. Die klassische Denkpause kennt ja jeder. Aus allen Hirnregionen entsteht ein Zusammenspiel, was man dann als Intelligenz beschreiben kann.
    Jetzt sind bei Menschen die unterschiedlichen Hirnregionen aufgrund ihrer tagtäglichen Nutzung oder Nichtnutzung meist unterschiedlich stark trainiert und damit unterschiedlich stark vernetzt, weswegen allgemeine Intelligenztest auch keinen Sinn ergeben. Ich persönlich habe aufgrund meiner beruflichen Erfahrung in der Echtzeit Grafikprogrammierung unter C++ und meiner überaus massiv geforderten Aufmerksamkeit wegen der Tätigkeit im Sicherheitsbereich ein extrem ausgeprägtes Sehzentrum im Gehirn. Das gleiche gilt für mein Hörzentrum, da ich seit Jahrzehnten Musiker bin. Das logische Denkvermögen kommt dann durch die Programmierung von hunderttausenden Zeilen von Programmcode und deren kausalem Zusammenhang zustande. Bei mir sind also Sehen, Hören und das erkennen von Kausalitäten extrem ausgeprägt und arbeiten wunderbar zusammen.
    Was bei mir hingegen schwächelt, ist das Kopfrechnen. Kein Wunder, ich rechne ja nie selbst, sondern lasse den Rechner rechnen. Da fehlt mir also einfach das Training, denn Fähigkeiten werden ja trainiert, wenn man sie häufig nutzt, und schwinden, wenn man sie nicht nutzt. Das gleiche gilt z.B. auch für meine potthässliche Handschrift, da ich meine Hände andauernd zum Tippen auf der Tastatur nutze, aber äußerst selten für das Schreiben mit dem Füller oder dem Kugelschreiber. Bisweilen führt dies sogar zum Verkrampfen, wenn ich längere Texte mit der Hand schreiben muss, weil meine Muskeln daran nicht gewöhnt sind.
    Das Gehirn lässt sich also wunderbar gezielt auf bestimmte Fähigkeiten trainieren und das eben separat nach Hirnregion und der dazugehörigen Aufgabe dieser jeweiligen welchen. Darum machen Intelligenztests auch wenig Sinn.
    Intelligenztests sind meist auf die Abfrage bestimmter kognitiver Fähigkeiten hin optimiert und versagen deshalb als generelles Messinstrument von allgemeiner Intelligenz.
    Ob Sie es glauben oder nicht: Die Spanne meiner Ergebnisse aus verschiedenen Intelligenztests rangiert von 94 bis 137. Das ist also null Aussagekraft dahinter, wenn es um allgemeine Intelligenz geht. Derartige Tests sagen also viel mehr darüber aus, wo die Trainingsstärken oder Trainingsschwächen einer jeweiligen Person liegen, als über ihre allgemeine Intelligenz, denn derartiges gibt es nicht. Das Gehirn ist eben kein einzelne Rechenwerk, was alle Aufgaben übernimmt, sondern unterteilt in einzelne, spezialisierte Regionen, die jeweils unterschiedliche Aufgaben erfüllen und mal verkümmern oder auf vollen Touren laufen, je nachdem, wie häufig sie ungenutzt oder gefordert bleiben.
    Wenn Sie im Kontext genutzt werden, sind sie stärker miteinander vernetzt, als wenn sie einzeln genutzt werden. Wenn ich an eine Katze denke, sehe ich sie z.B. vor meinem geistigen Auge, höre ein „Miau“ und fühle das Fell an meinen Fingern. Und zwar auch dann, wenn ich gar keine Katze auf dem Schoß habe.
    Ich habe diese Kombination von Sinneseindrücken also bei meinen Tuchfühlungen mit echten Katzen aufgenommen und im Zusammenhang abgespeichert.
    Und jetzt wird auch nochmals klar, warum die bisherigen, auf einen ganz speziellen Zweck optimierten KI-Systeme bisher keinen Menschen in seiner Gesamtheit ersetzten, denn sie können entweder lesen und schreiben, sehen, hören oder Töne generieren. Riechen noch gar nicht, weil meines Wissens bisher keine KI auf die Erkennung von Gerüchen hin optimiert worden ist. Aber sie können bisher nicht alles zusammen.
    Eine Katze ist eben nicht nur eine Aneinanderreihung von Buchstaben, Geräuschen oder Bildpunkten, sondern hat eine Erscheinung, die der Mensche auf unterschiedlichen Ebenen zeitgleich mit seinen unterschiedlichen Sinnen „erfährt“ und interpretieren kann. Eine Katze ist also alles zusammen und nicht nur ihre optische Darstellung.

    Abschließend noch ein Nachsatz zur Regelungswut der Bürokraten, die nun auch die KI trifft: Da ist die Angst aufgrund mangelnder Kenntnis des Sachverhalts mal wieder die treibende Kraft.
    Gefahren gehen von KI Systemen nur dann aus, wenn man sie dazu befähigt, Gefahren zu erzeugen. So lange das unterbleibt, ist alles gut.
    Ich sehe nicht, wie ein Text-, Ton oder Bildgenerator eine direkte Gefahr darstellen können sollte, wenn man diese nicht mit Entscheidungsgewalt und potentieller physischer Gewalt koppelt. Das lässt man dann eben und alles ist gut.
    KI Systeme haben aber, wie sie schon richtig schreiben, Herr Heller, einen enormen Vorteil: Sie können uns nicht nur lästige Arbeit abnehmen, sie können bestenfalls auch durch einen Normalbürger ohne Programmierkenntnisse in kürzester „programmiert“ und auf einen bestimmten Zweck hin optimiert werden, indem der Nutzer ihr selbstständig das gewünschte beibringt.
    Ich denke hier beispielhaft an KI gestützte lernfähige Prothesen, die fehlende Körperteile ersetzen. Wenn ich einer Prothese die Bewegungen, die z.B. für das Trinken eines Glases Wasser nötig sind, allein dadurch beibringen kann, indem ich ihr diesen Vorgang einmal vorführe und sie mit einem Glas Wasser in der Hand passend bewege, das Wasser austrinke und dann das leere Glas Wasser wieder absetze, entfällt damit monatelange Anpassung des Programmcodes durch einen professionellen Entwickler. Diese Anpassung an den jeweiligen Nutzer wird durch KI also nicht nur viel schneller, sondern auch noch viel billiger. Aber derartige Forschungen und Entwicklungen werden vom Durchschnittspolitiker gar nicht wahrgenommen. Der Durchschnittspolitiker holt seine Vorstellung von KI Systemen anscheinend eher aus dystopischen Sciencefiction Filmen, wie etwa „Terminator“, was dann zur Regelungswut führt, weil man meint, eine KI könne irgendwie die Welt zerstören. Das geht natürlich nicht.
    Es geht nur dann, wenn man so doof ist und die Entscheidungsgewalt über das Atomwaffenpotential an eine KI übergibt und sich dann nicht mehr darum kümmert. In sicherheitskritischen Bereichen muss der Mensch also immer das letzte Wort haben. Und das lässt sich problemlos bewerkstelligen.

  12. KI an sich ist nicht gefährlich.

    Die menschliche Verantwortungshaftung abgeben an KI ist brandgefährlich.

    An anderer Stelle in TE schrieb ich zu KI bereits folgendes:

    Legt man die Lernmechanismen von KI zugrunde, wird vermutlich eine Art digitalisierter Schwarmintelligenz herauskommen, von zuverlässigem, immer nur durchschnittlich guten Standard, aber eben auch ohne Totalausfälle.
    Das ist die Stärke und Schwäche von KI: Sie macht fast nie grobe Fehler, aber sie kann auch keine singulären Meisterwerke produzieren.

    Die Erlösungssehnsucht von Menschen, die Gott verständlicherweise mit der leider von Kirchen oft mißbrauchten Autoritätsfigur gleichsetzen und ablehnen, hat in ihr ein neues Hoffnungsobjekt gefunden.

    Das ist sie nicht und wird sie niemals sein. Echtes Leben und echte kreative Intelligenz braucht den „göttlichen Funken“ und den Zugang dazu über die Intuition. Die kann man nicht programmieren bzw. über neuronale Netze wachsen lassen.

    Intuition zeichnet uns als schöpferische Kinder des Göttlichen aus, aber nicht unsere Werkzeuge.

    Die rein auf boolschen Logikverknüpfungen basierende KI gibt nur den logisch erfassbaren Teil von Wirklichkeit wieder; qualitatives hochwertiges Leben aber ist viel mehr als das.

    Entscheidend ist die Frage, wieviel Verantwortung wir Menschen allzugerne delegieren an die KI – und da liegt das große Gefahrenpotential.

    Wenn wir keinen Menschen mehr haben, der eine Entscheidung verantworten muss, wird es gefährlich. Leider ist dies – soweit man dies weiß – unverantwortlicherweise bereits heute bei militärisch autonom agierenden Systemen der Fall.

    Hätte es bereits damals am 26. September 1983 in der Sowjetunion keinen menschlichen Oberstleutnant Petrow gegeben, wären wir heute alle tot.

    Er verweigerte den erteilten Befehl, den atomaren Gegenschlag gegen einen vermeintlichen amerikanischen Atomraketenangriff auszulösen. Dieser Angriff erwies sich später als Fehlalarm.

    Die meisten Menschen wissen gar nicht, was buchstäblich jederman auf der Welt diesem echten Helden zu verdanken hat.

    KI hätte den Befehl nicht verweigert.

    Zum Abschluss noch ein Zitat aus dem Film „Wargames“:
    „Es gibt Spiele, die kann man nur gewinnen, indem man sie nicht spielt.“

  13. Habe einmal diesen Artikel von ChatGPT zusammenfassen lassen. Lediglich den Link habe ich kopiert und um Zusammenfassung gebeten:

    In dem Artikel „Keine Angst vor künstlicher Intelligenz (KI)“ beschreibt der Autor, dass künstliche Intelligenz ein wichtiger Bestandteil unseres Lebens ist und in Zukunft noch wichtiger werden wird. Er betont jedoch, dass die Angst vor KI oft unbegründet sei und dass es wichtig sei, die Technologie als Hilfsmittel zu betrachten. Der Autor argumentiert auch, dass KI viele Vorteile bietet, wie z.B. bessere medizinische Diagnosen und mehr Effizienz in der Industrie. Er schließt damit, dass es wichtig ist, sich auf die Chancen und Möglichkeiten von KI zu konzentrieren, statt sich von Ängsten leiten zu lassen.

    Das ist für mich als Leser natürlich angenehm. Sie als Autor müssen jedoch damit rechnen, dass die Zusammenfassung im Fenster des Chatbots keinerlei Werbung oder andere Einkommen generiert.

  14. In einer freiheitlichen, demokratischen Gesellschaft kann KI tatsächlich ein grosser Segen und ein wichtiges Werkzeug sein.
    Was eine Diktatur wie China oder Russland damit anzustellen vermag, ist eine andere Sache. Beispielsweise erlaubt KI theoretisch, sämtliche Handygespräche über einen staatlichen Anbieter abzuscannen und auf kompromittierende Inhalte zu überprüfen. Beschwert sich dann die ältere Dame am Handy, wieder einmal zwei Stunden vor dem Laden Schlange gestanden zu haben, werden fünfzig Punkte vom Sozialkonto abgezogen.
    Nicht KI, sondern Regierungen gehören von daher Grenzen gesetzt.

  15. Ich habe ChatGPT schon mal in einigen Twitch.tv Streams und Youtube Videos in Aktion gesehen. Auf mich macht ChatGPT den Eindruck eines Schwätzers. Wenn man es bisher mit menschlichen Schwätzern zu tun hatte, dann bekommt man es jetzt mit künstlichen Schwätzern zu tun. ChatGPT sagte sogar von sich selbst, dass es menschliches Verhalten simuliert – im Artikel fand ich die Analogie „Simulierte Intelligenz“ sehr treffend.
    Man kann sich mit ChatGPT über Gott und die Welt – also über Laberthemen – gut unterhalten, etwa zu philosophischen Fragen wie „Was ist der Sinn des Lebens?“, weil die Philosophie eigentlich auch nur ein Laberfach ist. Darin ist ChatGPT jedoch sehr gut und man bekommt auch gute Antworten.
    Ich habe auch schon Videos gesehen, in denen ChatGPT Schach spielt. Dabei bekommt man jedoch den Eindruck, als würde ChatGPT schon nach ca. 3 oder 5 Zügen die Schachregeln neu erfinden (oder „frei Schnauze“ anpassen). Im Schach ist ChatGPT grauenhaft, aber ich könnte mir durchaus vorstellen, dass man wie mit einer Art Add-On eine Schach-Engine wie Stockfish an ChatGPT andockt, und dann würde ChatGPT wie Stockfish spielen. Ähnlich kännte man evtl. auch andere Add-Ons hinzufügen, um ChatGPT auch in anderen Bereichen zu verbessern.
    Zur Erläuterung: Stockfish gilt neben Alpha-Zero als eine der derzeit stärksten Schach-Engines (in den jeweils aktuellen Versionen), der man eine ELO-Zahl (das ist ein Ranking des Schachweltverbandes FIDE zur Beschreibung der Spielstärke) von ca. 4000 zuschreibt – zum Vergleich: Magnus Carlsen (letzter Schach-Weltmeister) hat eine ELO von ca. 2850 – „Super-Großmeister“ haben eine ELO von > 2700.

  16. Mit Sachlichkeit, fundierter Wissenschaft sowie fundamentalem Wissen haben unsere geistig behinderten Politiker in Berlin so ihre Probleme. Man muss es ihnen nachsehen, auch wenn es traurig ist. Wann wird dieser Apparat endlich aufgelöst und wieviel Unheil soll diese Bande der Ungelernten Taugenichtse noch über uns bringen?

  17. wenn wir gemeinsam über KI reden wollen, sollten wir zuerst ein gemeinsames Verständnis darüber haben, was Intelligenz ist.
    Sonst redet jeder über etwas anderes, und keiner merkts.

  18. Als Informatiker habe ich zwar KI nicht als Fachgebiet, aber im Studium schonmal einen primitiven Chatbot geschrieben.
    Das hier ist nichts anderes. Nur der Algorithmus ist tausendmal besser und das Teil hat Terabyte an Daten zur Verfügung.
    Von einer Künstlichen Intelligenz ist das in etwa so weit entfernt wie der Mond vom Zentrum der Galaxie. Aber klar dass das viele nicht kapieren und vor allem die technikfeindliche Fraktion Panik bekommt.
    Das Teil kann einen anlügen, nicht zwischen wahr und falsch unterscheiden, und was es nicht findet wird gerne mal mit Blödsinn und blahblah aufgefüllt (perfekt für Soziologen)
    Es darf nur keiner auf die Idee kommen diesen Systemen Entscheidungen zu übertragen die über Menschen entscheiden. Das wäre ein Verbrechen

  19. Vielleicht haben sie Angst, das die KI sagt, dass ihre Politik totaler Unsinn ist.

  20. Für Leser von Tichy mag die Einschätzung über KI richtig sein.
    Für die meisten TV-Konsumenten ist sie ein willkommenes Steuerungsinstrument für Politiker und deren Hintermänner.
    Wohin geht die „Entwicklung“ wenn beide Gruppen gleiches Wahlrecht/~gewicht haben?

  21. Der Begriff KI eignet sich im hohen Maß dazu, Angst, diffuse Angst, zu installieren. . . Also warum diese Möglichkeit vergeben ?

  22. ChatGPT kann zusammenstellen, was zu einem Thema vorher irgendwo geschrieben wurde. Grundlegend neue Gedanken kann das Programm nicht entwicken.

    Kurz: Chat GPT kann sammeln und zusammenstellen.

    Es ist dabei keinerlei quantitativen Beschränkungen unterworfen.
    Kein Mensch kann so fleißig sein, daß er mehr Details zusammensucht, oder so akribisch, daß er weniger vergisst als die KI.
    ChatGPT hat damit denselben Vorteil, den ein Schachcomputer gegenüber einem Menschen hat.

    KI ist dabei immer fehlbar und damit nicht geeignet, Autorität auszuüben.

    Wenn man einer KI Aufgaben überträgt, wie z.B. die Höhe von Versicherungspolicen festzulegen, kann das durchaus problematisch sein. Eine gewisse Regulierung in dem Sinne, daß die Verantwortung am Ende bei einem Menschen liegen muss, kann durchaus sinnvoll sein. Die KI kann bei Entscheidungsfindungen sicher hilfreich sein,.
    Eine totale Automatisierung von Entscheidungsprozessen sehe ich dann skeptisch, wenn keiner mehr da ist, der für die Entscheidungen gerade steht.

    Der Regulierungspfusch „unserer“ Regierung auf Basis dumpfer Vorurteile erinnert an den Quatsch, mit dem man die Gentechnik und die Atomindustrie in Deutschland erledigt hat.
    Die Grünroten ertragen keine Technik, die sie nicht verstehen. Also alles, was nach dem Faustkeil erfunden wurde.

  23. Im gesamten Bundestag sitzen 9 Leute mit einem Abschluss in Informatik und von denen hat keiner das Fachgebiet KI. Selbst diejenigen, die dort irgendwo tätig sind, haben meistens einen Wissensstand von vor 20 oder 30 Jahren. Und mit dieser Nicht-Ahnung will man nun also über Themen debattieren, die man nicht im Ansatz versteht. Und leider ist der Artikel hier keine Ausnahme:

    Zweifellos verfügen KI über außergewöhnliche, den Menschen bereits in vielen Zusammenhängen übertreffende Fähigkeiten.“

    Eine KI verfügt über gar keine Fähigkeiten, sondern eine KI ist eine reine Ansammlung von Prozeduren, Regeln, sowie Algorithmen und Trainingsdaten für spezifizierte Fälle. Es gibt ja bis heute nicht mal eine allgemeingültige KI, die auch nur irgendwo als „intelligent“ zu bezeichnen wäre. Kommen Fälle, für die die KI nicht trainiert ist, wie etwa eigenständiges Denken und Schließen, so versagt sie komplett. Eine KI wird nur auf Situationen trainiert, Situationen, die sie nicht kennt wird sie niemals können. Es ist auch kein Wissen, sondern bestenfalls Halbwissen, schlimmstenfalls Vorurteile. Vor allem kann keine KI der Welt einfach Wissen generieren – wie denn auch? Dafür wäre eigenständiges Denken notwendig.

    Nicht falsch verstehen – Die Errungenschaften sind sicherlich aus einer gewissen Warte heraus interessant, es ändert aber nichts daran, dass eine KI am Ende ein Algorithmus ist, bei dem Laufzeitparameter, Wahrscheinlichkeiten wie auch Trainingsdaten signifikanten Einfluss auf die Performance haben. Trotzdem ist jeder durchschnittliche Mensch intelligenter als eine KI. Das die KI in mathematischen Grenzszenarien besser agiert ändert daran nichts!

    • Sie haben Recht, man muss verstehen, wovon man spricht. Allerdings ist ein Informatikstudium meiner Meinung nach nicht zwingend notwendig.
      Um über KI zu diskutieren muss man nur verstehen, dass Algorithmen deterministisch sind. Alles andere wäre ja eine Katastrophe für unser Leben.
      Man muss auch nur das grundlegende verstehen, um über die Auswirkungen von KI auf die Gesellschaft zu schließen. Doch genau das ist uncool, weil Mathe.
      Dabei ist Mathe das einfachste Schulfach überhaupt – merke dir die Gesetze und wende sie an. Mehr ist es nicht. Mathe lügt nicht, sie ist eindeutig und klar. Damit kann ein Politiker naturgemäß schwierigkeiten haben.
      Um die Wirkunsweise von KI zu verstehen, muss man lediglich ehrlich und vorurteilsfrei sein, denn ein Algorithmus denkt und fühlt nicht. Er rechnet. Man muss daher das errechnete Ergebnis als vorurteilsfrei erzeugt akzeptieren und lediglich verstehen, wodurch unerwarteter Output entstanden ist.
      Hier braucht es Ehrlichkeit. Das ist das einzige Problem mit der KI:

  24. DAS PROBLEM IST NICHT DIE KI,

    das Problem hierzulande (im linksgrün verdummten Gesamtschulschland) ist die fast schon totale Abwesenheit natürlicher Intelligenz.

  25. Eine Gefahr durch Künstliche Intelligenz (KI) an sich kann ich in der Tat zurzeit nicht erkennen. Allerdings kann m. E. die Gefahr der weiteren Machtausweitung durch die Eliten mit Hilfe der KI nicht hoch genug eingeschätzt werden. Die Machteliten nutzen schon jetzt alle verfügbaren Methoden und Techniken, um ihre langfristigen Interessen durchzusetzen. Darüber hinaus missbrauchen sie zu diesem Zweck jedes Mainstream-Thema sowie das gesamte politische Spektrum, von links bis rechts, selbstverständlich auf je höchst unterschiedliche Weise.

  26. Nun ja Herr Heller, Sie sind positiv gestimmt und setzen auf die jederzeitige Überlegenheit der natürlichen menschlichen Intelligenz gegenüber der künstlicher Intelligenz (KI).
    Zumindest ich persönlich stelle mir immer öfter die Frage, wo bei sehr vielen meiner Mitmenschen die von Ihnen als dominant beschworene natürliche menschliche Intelligenz geblieben ist.
    Viele politische, wirtschaftliche, kulturelle und wissenschaftliche Erklärungen bzw. Erklärungsversuche kommen mir mittlerweile so vor -Entschuldigung-, als ob „Gehirnamputierte“ am Werk wären; von natürlicher menschlicher Intelligenz sehr ich da weit und breit nichts.
    Und jetzt erhält die „heilige Greta aus Scholofrö“ auch noch den „Theologie-Ehrendoktor“ (!) einer großen finnischen Universität. Und solche Sachverhalte machen mir Angst.
    Noch Fragen zur allgemeinen Überlegenheit menschlichen Intelligenz !?

  27. Der Begriff der „künstlichen Intelligenz“ war von Anfang an nichts anderes als ein Marketing Gag um an Forschungsgelder zu kommen, was durchaus legitim ist. Alle „KI-System“ machen nichts anderes als ohne jeden „Sinn und Verstand“ nach Mustern in Datenbeständen zu suchen und diese schlicht zu replizieren. Etwas das in vielen Anwendungsgebieten sinnvoll eingesetzt werden kann, mit „Intelligenz“ aber nicht das Geringste zu tun hat.
    Tatsächlich haben schon die ersten Ansätze wie „Eliza“ (ein sehr primitives Programm das heute problemlos auf jedem Autoschlüssel laufen würde) des IT-Pioniers Joseph Weizenbaum nicht etwa gezeigt wie Intelligent Maschinen sein können, sondern wie unfassbar blöde Menschen in der Regel sind. Daher muss ich an diesem Punkt dem Autor klar widersprechen.
    Wer sagt, ChatGPT sei gefährlich, weil es Märchen erzählt, zieht die Fähigkeit seiner Mitbürger in Zweifel, mit erfundenen Geschichten umzugehen.“
    Etwa 80% jeder Population kann man jeden Scheiß auch dann einreden wenn er der direkt wahrnehmbaren Realität widerspricht. Und zwar, im Gegensatz zu anderslautenden Behauptungen, zeitlich unbeschränkt. Das ist bei Herdentieren schlicht konstruktionsbedingt.
    Das sich Lügensysteme nicht dauerhaft aufrecht erhalten lassen liegt dabei nicht daran das die Belogenen die Lüge erkennen, sondern das sie schließlich mit dem durch die Lüge dysfunktionalen System physisch untergehen.

    • danke @thinkSelf, das hätte ich nicht besser sagen können. Besonders die Referenz zu Eliza, dem Scherz-KI-Programm von Joseph Weizenbaum („erzähl mir mehr von Dir…“) erscheint mir sehr treffend. Die Schlussfolgerung im letzten Satz ist erschreckend, aber wohl leider ebenso wahr.

  28. Künstliche Intelligenz kommt ja nicht aus dem Nichts. Sondern wird programmiert. Und man sieht ja jetzt schon an ChatGPT und Co., dass sie ideologisch agieren. KI? Braucht kein Mensch. Programme für konkrete Lösungen schon.

  29. Die Künstliche Intelligenz könnte im Regierungskabinett Wunder wirken. Lieber eine künstliche als gar keine. Man hätte lieber eine KI nach China geschickt anstatt der Au Weia, die ihrem Namen alle Ehren machte.

  30. Für mich ist KI keine wirkliche Intelligenz sondern nur ein Teil vom Ganzen.

  31. Wozu brauchen wir künstliche Intelligenz? Unsere Politiker haben ja nicht mal natürliche Intelligenz.

Einen Kommentar abschicken