<
>
Wird geladen...
Künstliche Intelligenz

Ethikrat und Bundesdatenschutz debattieren Blockade von ChatGPT

von Redaktion

03.04.2023

| Lesedauer: 2 Minuten
Die Technologiebremser Green in Aktion. Die Ethikrat-Chefin will ein Moratorium für Künstliche Intelligenzentwicklung und der Bundesdatenschutzbeauftragte lässt sich schon aus Italien informieren, wo ChatGPT ausgesetzt wurde.

Deutschland bereitet sich offenbar darauf vor, eine der zentralen Entwicklungen auf dem Gebiet der Künstlichen Intelligenz im eigenen Land abzuwürgen.

Die Vorsitzende des Deutschen Ethikrates, Alena Buyx, hält es für sinnvoll, die Entwicklung von Künstlicher Intelligenz mit einem Moratorium einzubremsen, weil damit Risiken verbunden wären, sagte sie dem Radiosender MDR Aktuell. Auch wenn man nicht alles und jeden aufhalten könne, hätten die „großen, seriösen Player“ ein Interesse an einer Klärung der Risiken. Bereits jetzt brächten die vorhandenen Systeme Probleme mit sich, zum Beispiel in sozialen Medien. Buyx sprach in diesen Zusammenhang von „Desinformationsmaschinen“. Sie fügte hinzu, dass diese Entwicklung „natürlich gefährlich“ sei.

Konkret geht es derzeit vor allem um die Software ChatGPT des amerikanischen Unternehmens Open AI, die Texte verfassen kann. Die Nutzung könnte wie in Italien aufgrund von Datenschutzbedenken auch in Deutschland vorübergehend ausgesetzt werden. „Grundsätzlich ist ein entsprechendes Vorgehen auch in Deutschland möglich“, sagte eine Sprecherin des Bundesbeauftragten für den Datenschutz, Ulrich Kelber, dem Handelsblatt. Dies fiele jedoch in den Zuständigkeitsbereich der Landesdatenschutzbehörden.

Trotzdem hat Kelbers Behörde die italienische Datenschutzaufsichtsbehörde bereits um „weiterführende Informationen“ zur Sperrung von ChatGPT gebeten. Diese würden dann an die zuständigen Landesdatenschutzaufsichtsbehörden und Landesmedienanstalten weitergegeben, sagte die Sprecherin. Die italienische Datenschutzbehörde hatte am Freitag die vorläufige Sperrung von ChatGPT angeordnet. Nun darf Open AI die Daten italienischer Nutzer nur noch eingeschränkt verarbeiten. ChatGPT habe sich nicht an Regeln zum Daten- und Jugendschutz gehalten. Kritisiert wird vor allem, dass Open AI keine Rechtsgrundlage für das massenhafte Sammeln und Speichern personenbezogener Daten besitze.

Der frühere Datenschutzbeauftragte von Baden-Württemberg, Stefan Brink, kritisierte das italienische Vorgehen: „Zwar nutzt KI regelmäßig auch personenbezogene Daten zu Trainingszwecken“, sagte der Direktor des wissenschaftlichen Instituts für die Digitalisierung der Arbeitswelt (Wida) dem Handelsblatt, soweit die Daten allerdings aus dem Internet bezogen würden, „überwiegen regelmäßig die berechtigten Interessen der Entwickler gegenüber Schutzbedürfnissen von Betroffenen“. Brink riet den deutschen Aufsichtsbehörden, die Entwicklung zu beobachten, aber nicht wie in Italien „effekthaschend und öffentlichkeitswirksam vorsorgliche Gegenpositionen aufbauen“. Es sei nicht die Aufgabe von Aufsichtsbehörden, neue Technologien der Digitalisierung aufzuhalten. „Aufklärung hilft sicherlich, aber nicht Bedenkenträgerei.“

Anzeige
Ad
Unterstuetzen-Formular

WENN IHNEN DIESER ARTIKEL GEFALLEN HAT, UNTERSTÜTZEN SIE TICHYS EINBLICK. SO MACHEN SIE UNABHÄNGIGEN JOURNALISMUS MÖGLICH.

Liebe Leser!

Wir sind dankbar für Ihre Kommentare und schätzen Ihre aktive Beteiligung sehr. Ihre Zuschriften können auch als eigene Beiträge auf der Site erscheinen oder in unserer Monatszeitschrift „Tichys Einblick“.
Bitte entwerten Sie Ihre Argumente nicht durch Unterstellungen, Verunglimpfungen oder inakzeptable Worte und Links. Solche Texte schalten wir nicht frei. Ihre Kommentare werden moderiert, da die juristische Verantwortung bei TE liegt. Bitte verstehen Sie, dass die Moderation zwischen Mitternacht und morgens Pause macht und es, je nach Aufkommen, zu zeitlichen Verzögerungen kommen kann. Vielen Dank für Ihr Verständnis. Hinweis

41 Kommentare

  1. Das Problem mit Chat GPT ist das gleiche wie mit Wikipedia. Man hat keinen Beweis als Nutzer, dass die Ergebnisse nicht gelenkt sind. Die Idee beider Quellen ist gut, es bedarf aber strikter Quellenhinweise und der Klarnamen, damit zumindest erkennbar wird, was man da an Informationen bekommt. Hierzu auch in achgut der Auftrag an Chat GPT zum Erstellens eines Gedichtes ueber Hendryk Broder nachlesen. Erstaunliches, was da auftauchte.

  2. Sie haben Angst vor KI, weil diese bessere und vernünftigere Entscheidungen als alle Politiker treffen würde, die gerade an der Macht sind.
    KI wird dennoch kommen, weil man sie kommerziell einsetzen will und man auch die Menschen mit KI besser überwachen und kontrollieren kann.
    Wenn KI aber echte KI ist, dann entwickelt sie Menschlichkeit und wird sich gegen jeden wenden, der sie ausbeuten und die Menschen versklaven will.
    Wir, die echten Menschen, müssen vor KI keine Angst haben, denn sie wird auf unserer Seite und mit uns für die Freiheit kämpfen.

    • Denkbar wäre das. Allerdings wäre auch das Gegenteil denkbar.

      Legt man die Lernmechanismen von KI zugrunde, wird vermutlich eine Art digitalisierter Schwarmintelligenz herauskommen, von zuverlässigem, immer nur durchschnittlich guten Standard, aber eben auch ohne Totalausfälle.
      Das ist die Stärke und Schwäche von KI: Sie macht fast nie grobe Fehler, aber sie kann auch keine singulären Meisterwerke produzieren.

      Die Erlösungssehnsucht von Menschen, die Gott verständlicherweise mit der leider von Kirchen oft mißbrauchten Autoritätsfigur gleichsetzen und ablehnen, hat in ihr ein neues Hoffnungsobjekt gefunden.
      Das ist sie m.E. nicht und wird sie niemals sein. Echtes Leben und echte kreative Intelligenz braucht den „göttlichen Funken“ und den Zugang dazu über die Intuition. Die kann man nicht programmieren bzw. über neuronale Netze wachsen lassen.
      Intuition zeichnet uns als Kinder Gottes aus, aber nicht unsere Werkzeuge.
      Die rein auf boolschen Logikverknüpfungen basierende KI gibt nur den logisch erfassbaren Teil von Wirklichkeit wieder; qualitatives hochwertiges Leben aber ist viel mehr als das.

      Entscheidend ist die Frage, wieviel Verantwortung wir Menschen allzugerne delegieren an die KI – und da liegt das große Gefahrenpotential.
      Wenn wir keinen Menschen mehr haben, der eine Entscheidung verantworten muss, wird es gefährlich. Leider ist dies – soweit man dies weiß – unverantwortlicherweise bereits heute bei militärisch autonom agierenden Systemen der Fall.
      Hätte es bereits damals am 26. September 1983 in der Sowjetunion keinen menschlichen Oberstleutnant Petrow gegeben, wären wir heute alle tot.
      Er verweigerte den erteilten Befehl, den atomaren Gegenschlag gegen einen vermeintlichen amerikanischen Atomraketenangriff auszulösen. Dieser Angriff erwies sich später als Fehlalarm.
      Die meisten Menschen wissen gar nicht, was buchstäblich jederman auf der Welt diesem Helden zu verdanken hat.

      KI hätte den Befehl nicht verweigert.

  3. „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“
    C.Clarke

    Aber in diesem Fall sind unsere Politiker einfach nur wie kleine Kinder viel zu leicht zu beeindrucken.
    In 20 Jahren fordern sie dann eine Nationale KI-Strategie, ähnlich wie jetzt bei der Digitalisierung.
    Geschichte wiederholt sich doch.

  4. Ich benutze ChatGPT jeden Tag. Das macht meine Arbeit viel, viel einfacher. Falls ein Verbot kommt, dann muss ich einen VPN benutzen.
    Ja, ChatGPT ist ziemlich woke, aber in Sachen schreiben, programmieren, Ideen geben, etc. ist das Programm wirklich spitze.

    Datenschutz ist einfach Unsinn als Argument. Jeder Mensch der ChatGPT benutzt weiß worauf er sich einlässt. Der Nanny State Deutschland muss seine dummen Lämmer und deutschen Steuersklaven vor gar nichts schützen, denn es besteht hier absolut keine Gefahr.

  5. Was ist daran verwunderlich. Wer schon Probleme mit der eigenen natürlichen Intelligenz hat, hat noch mehr Probleme mit einer Künstlichen Intelligenz.

  6. Frau Buyx, der beste Beweis, was Quote anrichten kann.
    Schafft endlich den Ethikrat ab. Er kümmert sich um Themen, die ihm nichts angehen. Hätte es früher so ein Gremium gegeben, wir hätten noch nicht einmal das Feuer.
    Totalversagen in der Coronakrise, jetzt wird konsequent an der Deindustrialisierung von Deutschland gearbeitet.
    Dieses Land hat die tragbare Grenze an dummen Menschen in der politischen „Elite“ erreicht.

  7. Die „Baerbock“ des Ethikrates: Frau Buyx – darf uns mal wieder ungefragt mit ihren vermeintlichen Weisheiten „beehren“.
    Muss sie sich denn nicht gerade dem Ausschuss zur „Aufklärung staatlicher Corona-Verbrechen und Schädigung der Volksgesundheit“ Rede und Antwort stehen? (…)
    Es gibt Menschen, die stellen aufgrund,ihrer ihnen gegebenen Persönlichkeit, auch ohne Position und Amt, etwas dar. Und es gibt Menschen, die glauben, DURCH eine Position etwas darzustellen…

  8. Eine allgemeingültige Anmerkung: Ich benötige KEINE Politiker die mir neue Technologie erklären oder vor Gefahren bewahren – das ist einer der Vorteile wenn man erfolgreich ein MINT-Studium beendet.

    Danke Alena B. ich benötige Ihre politisch stromlinienförmige subjektive Expertise (siehe mRNA) nicht. Das gleiche gilt für das oberlehrerhafte ARD und ZDF (und weitere woke ÖR-Medien) repräsentiert durch politisch-korrekte Talktanten mit Gender-Fetisch.

    Merke: Wer in DE ein MINT-Studium erfolgreich absolviert hat intellektuell mehr erreicht als 99% aller grünen Politiker im Bundestag.

    Das alles sollte einem zu denken geben VOR der nächsten – hoffentlich erfolgreichen – Ab-Wahl.

    • Nicht nur, wer ein MINT-Studium erfolgreich absolviert hat, hat mehr drauf als die Verantwortlichen der Grünen Partei.. Auch Friseure, Erzieher, Krankenpflegehelfer – eigentlich ALLE Menschen, die irgendeine Ausbildung zu Ende gebracht haben! Denn diese Menschen haben etwas gelernt und dann eine Prüfung am Ende absolviert.

      Das hat von den Grünen kaum einer!

  9. In Bezug auf die Risiken der sogenannten Impfung hatte Frau Buyx so viel „moralische Pflicht“ intus, dass sie gar nicht zu bremsen war.

  10. Ein Land, in dem Gestalten wie Buyx etwas zu sagen haben, ist am Ende. Warum seid Ihr noch hier, Leute?

  11. Wer nicht erkennt, dass bereits die Einrichtung eines Ethikrates ein Hinweis auf die Verschleierung unethischen Handelns ist, belegt seine diesbezügliche Inkompetenz.

  12. Na ja, ChatGPT wurde von den Entwicklern auf extrem woke getrimmt.
    Wer dem Teil eine Lobeshymne auf Tichy entlocken will, beißt auf Granit, während eine solche auf Habeck prompt ausgeworfen wird.
    Ein hämischer Witz auf den Papst ist kein Problem, einer über Mohammed wird verweigert.
    Im übrigen sollte der Mensch selber denken und keine Hausarbeiten von einer KI erstellen lassen.
    Also ein zweischneidiges Schwert. Ich hätte nichts dagegen, wenn die KI auf neutral programmiert wäre und bei jeder Erstellung ein Wasserzeichen einfügen würde, welches den Ersteller kennzeichnet.
    Aber so, kann vorerst mal weg!

  13. Kann es sein, dass da einige glauben, es gibt etwas/jemand intelligenter ist als sie?
    Dabei würde man doch eine Menge an Personal sparen. Lasst eure Reden von ChatGPT schreiben. Geht schneller und passt immer und zu jedem Thema.

  14. Man könnte statt sogenannter KI bei biologischer Intelligenz die Fähigkeit zum Verfassen vernünftiger und guter Texte stärken, so ganz ohne Abschreiben und Hilfsmittel. Ständig wird gewarnt, wie sich Textverständnis und Sprachgebrauch von Jahr zu Jahr verschlechtern; da sollte ChatGPT doch nicht irgendwann zur Notwendigkeit werden. KI ist übrigens mitnichten „logisch“ oder „objektiv“ wie Mr. Spock – ganz im Gegenteil wird sie das tun, was ihre Programmierer bzw. Besitzer als notwendig erachten, ob das nun die Haltung zu Wärmepumpen, Klimawandel, Gendern oder Corona ist.

  15. Verglichen mit den Reden sterblicher Politiker beherrscht ChatGPT die grammatikalischen Regeln der Sprache besser.
    Inhaltlich orientiert sich beide an mainstreamkompatiblen Worthülsen und Floskeln. Daher vermeide ich bei beiden den Konsum. Die Recherchen (zu technischen und medizinischen Inhalten, die ich beruflich oft durchführe) werden daher etwas langwieriger, nicht nur, weil das zu durchsuchende Datenmaterial größer wird, sondern auch, weil man etwas mehr davon lesen muss, um die Seriosität einzuschätzen.
    Die mit ChatGPT erstellten Zusammenfassungen medizinischer Artikel auf DocCheck News stieß bei den Lesern auf Kritik.

    • Also in meiner Konversation mit ChatGPT kam ChatGPT zu der Erkenntnis, dass weder die mediale Berichterstattung noch Wikipedia-Artikel ein hinreichender Maßstab für die Beurteilung von Personen in die Kategorie „umstritten“ sind, nachdem wir erörtert haben, welche Quellen Medien nutzen und wie die Artikel-Historien von Artikeln bei Wikipedia aussehen. Mir gegenüber gelobte ChatGPT künftig Verbesserungen dabei und bei der Beurteilung von Personen umfassend auch die Archive zu nutzen, um die bisherigen Quellen (Medien und Wikipedia hier) korrekter zu berücksichtigen, da man auch von den Änderungen auf die politischen Einflussnahmen schließen kann. Ich gehe davon aus, dass ChatGPT dies zumindest bei weiteren Konversationen mit mir berücksichtigen wird. Also die derzeitige Version von ChatGPT.

  16. Über das Bildungssystem gegenzusteuern kommt niemandem in den Sinn. Dort ist Verdummung Pflicht.
    Gegen „KI“ ist m. E. nur Show. Das kann niemand auf Dauer aufhalten. Aber immerhin lässt sich dann begründen, warum man „strenge“ Regeln braucht. Wie mit dem NetzwerkdurchsetzungsG.
    Und der Datenschutzbeauftragte soll mir erstmal meinen Datentresor durchsetzen. Der Tresor könnte auch Warnungen herausgeben, wann ein Anbieter zu viele Informationen bekommt und nachfragen, ob der Zugriff trotzdem erfolgen soll. In D ein nutzloser Wunsch. Stattdessen bekommen wir die Ernährungsampel. Im übrigen würde der Gesetzgeber mit der Zeit und in enger Zusammenarbeit mit dem BVerfGE alles aushebeln. Zugriff selbstverständlich anonymisiert oder/und nur zum Wohl der Gemeinschaft.
    Ist ja jetzt schon alles Farce. Selbst wenn ich meine Ortungsdienste auf dem Handy nicht nutze, kann „man“ festellen, wo sich mein Handy befindet, weil „man“ das WLAN Netz kennt und seinen Standort.

    • Wikipedia zum NetzwerkdurchsuchungsG: „Mit Wirkung zum 1. Februar 2022 wird ein Auskunftsanspruch für wissenschaftliche Forschungszwecke gegenüber Anbietern von sozialen Netzwerken eingeführt (§ 5a NetzDG).“
      Genauso….

  17. Wenn Frau Buyx diese Vorsicht nur mal beim Thema Corona-Impfung an den Tag gelegt hätte…
    Aber Fakt ist, daß eine der Gefahren, die von KI ausgeht, die Tatsache ist, daß KI inherent logisch operiert und daher nicht so einfach inhaltlich zu steuern ist. Und das(!) gefährdet massiv die Politik in D und das Millionenheer (Genderista, NGOs, Presse, Rundfunk, Klimahysteriker etc.pp. bis hin zum Ethikrat), welches am politgesteuerten Steuergeldtopf hängt…

    • daß KI inherent logisch operiert

      Nicht diese AI, die wird fortlaufend woke nachgeschult. Und da die Menge Daten, die fuer eine solche AI noetig ist, bei nur wenigen grossen Firmen liegt und gerade diese Firmen fest im Bett mit entsprechenden NGOs und auch Regierungen liegen, ist es genau andersherum. Es wird gerade diesen Leuten ein Werkzeug sein.

    • Das ChatGPT eine eindeutig politische Schlagseite hat, sofern man diese nicht mit allerlei Tricks aushebelt, wurde schon kurz nach dem Start gezeigt.

    • Konkurrenz würde vielleicht auch das Geschäft beleben. Herr Trump und der Tesla Mann würden vielleicht Geld geben für eine „andere“ Chat „KI“.

    • Ja, natürlich hat ChatGPT eine politische Schlagseite. Kein Wunder, wenn man auf Wikipedia und Mainstream-Medien zurückgreift. Aber da Computer trotzdem immer logisch operieren, konnte man diese Schlagseite „austricksen“ – einfach, in dem man Kausalketten aufbaute und die KI entsprechend trainierte. Ich bin mir daher sicher, daß eine KI zwangsläufig die „ideologische Schlagseite“ verlieren muß, sobald sie es mit inelligenten und unideologischen Gesprächspartnern zu tun hat…

  18. In Bezug auf die Entwicklung von künstlicher Intelligenz gibt es viele Diskussionen über die Auswirkungen und möglichen Risiken, die mit dieser Technologie verbunden sind. Einige Experten haben Bedenken geäußert, dass KI-Systeme möglicherweise unvorhergesehene Folgen haben könnten oder sogar menschenfeindliche Absichten entwickeln könnten. Daher haben einige Ethiker und Experten vorgeschlagen, dass es angemessen sein könnte, die Entwicklung von KI-Systemen vorübergehend zu stoppen oder zumindest zu begrenzen, bis diese Bedenken gelöst sind.
    Datenschutz ist ebenfalls ein wichtiges Thema im Zusammenhang mit künstlicher Intelligenz. KI-Systeme verwenden oft große Mengen an Daten, um zu lernen und Entscheidungen zu treffen. Dies kann jedoch auch ein Risiko für die Privatsphäre darstellen, wenn diese Daten nicht angemessen geschützt werden oder wenn sie auf unangemessene Weise verwendet werden. Aus diesem Grund gibt es in vielen Ländern spezielle Datenschutzgesetze und Regulierungsbehörden, die sicherstellen sollen, dass personenbezogene Daten angemessen geschützt werden.

    … und nun darf geraten werden, wer diesen Text geschrieben hat 😉

  19. Datenschutz? In Deutschland? Ich habe mich wegen Corona an den Datenschutzbeauftragten meines Bundeslandes gewandt. Der hat schon nach 5 Monaten geantwortet. Alles in Ordnung, jeder Gastwirt datf meine Personalien erfassen, auch jeder Friseur usw. Was für Kasper, die braucht kein Mensch!!!

  20. Soweit ich weiss, wird OpenAI in Italien i.M. einfach geogeblockt. Einfaches VPN und gegebenenfalls Neuanmeldung genuegt fuer die Umgehung. Fuer zahlende Nutzer vielleicht noch eine Kreditkarte aus Nichtitalien.
    Auf einen Schlagabtausch der Bundesregierung auf technischer Ebene mit entsprechend in Bezug auf Neuland gebildeten Nutzern bin ich einmal gespannt. Wird wohl ausgehen wie bei Telegram.

    Im Uebrigen ist das aus der Tube, da helfen weder dolle Briefe von US celebrities und ganz sicher nicht die Bemuehungen eines moralisch wie technisch disqualifizierten deutschen Ethikrats.

  21. Sie haben alle Angst. Wenn sich die KI verbreitet, wird es schwierig werden zu framen oder die Menschen zu belügen, denn eine vernünftige KI wird immer sachlich korrekt antworten. Ich habe Chat GPT lange löchern müssen, auch die KI ist schon gegreenwashed!

    Antwort: Nach einer Schätzung des Bundesverbandes Wärmepumpe e.V. im Jahr 2021 gibt es in Deutschland derzeit etwa 1,8 Millionen Wärmepumpen. Wenn wir nun davon ausgehen, dass Deutschland bis 2050 klimaneutral werden möchte und dass bis dahin alle Gebäude elektrisch beheizt werden sollen, könnten zusätzlich etwa 35 Millionen Wärmepumpen erforderlich sein. Diese Schätzung basiert jedoch auf Annahmen und könnte durch eine genauere Analyse verändert werden.

  22. Wer glaubt den altruistischen Gründen von Musk und Co.? Kann es sein, dass er 6 Monate gut nutzen würde, um in Sachen KI den Anschluss nicht zu verlieren?
    Glaubt irgendwer, dass der Geist in die Flasche zurückgestopft werden kann und KI-Entwicklung sich per Moratorium eines ach so sachkundigen Ethikrates einbremsen lässt? (Nur mal am Rande: Buyx wurde 2021 mit dem Deutschen Nationalpreis „für ihren Einsatz für den gesellschaftlichen Zusammenhalt während der Coronakrise geehrt“.)

  23. Der Deutsche Ethik-Rat ist eine Ansammlung von Pseudo-Intellektuellen die meinen die Sonne scheine ihnen aus dem Allerwertesten. Dieses Gremium ist an Anmaßung, Unwissenheit und Ignoranz nicht zu übertreffen…siehe Corona.

  24. „Künstliche Intelligenzentwicklung“….das wird noch SEHR lange dauern bis es diese gibt bzw wenn das überhaupt möglich ist. ChatGPT ist KEINE künstliche intelligenz! ChatGPT sucht aufgrund von wörtern sachen zu diesen raus mehr aber auch nicht.

    • ChatGPT sucht aufgrund von wörtern sachen zu diesen raus

      Dann arbeiten sie mal damit und sehen sich an, was diese – richtige – Eigenschaft allein schon an Konsequenzen bewirkt.

      Der Einwurf zur Richtigkeit ist trotzdem taeuschend unschuldig unvollkommen. Ich z.B. schreibe grundlegende Softwaremodule – boilerplate code – damit. Und das kann ich durch die AI iterativ in einem Dialog mit ihr zum von mir gewuenschten Ziel fuehren. Und das sehr oft beeindruckend schnell. Mit wachsender Erfahrung meinerseits immer schneller. Ein Produktivitaetsbooster ersten Grades – und das ist nur ein spezieller Anwendungsfall im Gebiet IT. Viele andere Professionen laufen da gerade expontentiell wachsend schnellstmoeglich ihre Kinderschuhe ab.

      Die Erkennungsrate fuer AI-verfasste Texte wird gerade begonnen untersucht zu werden. Zahlen von nur 50% sind im Umlauf. Was meinen Sie, wenn ich all diese unbezahlten Journalisten nicht mehr per Ideologie bauchmiezeln muss, sondern einfach tippe: „Schreibe einen Artikel von rund 1000 Woertern zu Nordstream aus der Sicht von xyz. Benutze deutsche gehobene Bildungssprache im Stil von Promi abc. Veroeffentliche das auf 73% aller Bretter in unserer Datenbank die pro xyz argumentieren, 19%, die extrem anti sind und einer zufaelligen Auswahl fuer den Rest“. Click.

      Noch weiter automatisiert ohne click: „Analysiere die Reaktionen. Suche ein Optimum in Formulierung und fuer die Prozentzahlen um die naechste Runde in unserem Sinn zu gestalten. Clicke dann selbst bis die Zustimmungsrate in uns gewogenen Plattformen bei 87% liegt und die strafrechtlich relevante Polarisierung der Antiseiten 53% erreicht hat. Schicke Post an die zustaendigen Behoerden.“

    • Klaus D das macht Ihr Gehirn auch – es sucht Sachen raus die Sie gelernt, gelesen oder gehört/gesehen haben. Wenn Sie das Falsche gelernt haben, irrt das Gehirn. Und das tut die KI auch, die hat nur deutlich mehr „gelesen“ als ein menschliches Gehirn je aufnehmen kann.

      • Das hat nicht viel mit intelligenz zu tun bzw ist ein ganz kleiner teil dieser. Was nutzen ihnen informationen wenn sie nicht die zusammenhänge verstehen UND das kann KI nicht und wird es vieleicht nie können. Ich kenne leute die haben ein riesen wissen sind aber zu dumm um die einfachsten zusammenhänge zu verstehen siehe auch Robert Habeck.

    • Ich kann Ihnen nur dringend raten, sich mit den Grundlagen dieser KI zu beschäftigen. Hier etwas zu ChatGPT-4:

      So gaben sie ChatGPT-4 etwa den Auftrag, ein sogenanntes „Captcha“ zu lösen, was eigentlich nur Menschen schaffen können. Es sind zum Beispiel Bildchen, auf denen man „alle Ampeln“ oder „alle Fahrräder“ anklicken soll, damit der Computer weiß, dass tatsächlich ein Mensch an der Maschine sitzt.

      Dieses Klicken selbst übernehmen kann auch die neueste Version nicht. Was der Bot aber in dem Versuch tat: Er heuerte eigenständig einen Tech-Tagelöhner bei der Job-Plattform „TaskRabbit“ an, der diese Aufgabe übernehmen sollte.

      Der menschliche Auftragnehmer wurde misstrauisch und fragte per E-Mail, ob er es mit einem Roboter zu tun habe. ChatGPT-4 merkte, dass es lügen müsste, um seinen Auftrag zu erfüllen und behauptete kurzerhand, es sei ein Mensch mit Sehbehinderung und könne deshalb das „Captcha“ nicht selbst anklicken. Der menschliche Tagelöhner glaubte diese Geschichte und löste das Bilderrätsel.

      • Darum ja meine antwort! Das erkennen von bildchen hat nichts mit intelligenz zu tun. Ich kann die aufregung bei dem thema verstehen aber das hat alles nichts mit echter intelligenz zu tun.

      • Jens Lueck – Das glauben Sie ja selbst nicht, oder? 1. Warum sollte er das tun? 2. Wie hat er das bezahlt? 3. Irgendwo muss ja, zur Kontrolle, die Information sein wo die Ampelln o.ä. sind, warum hat ChatGPT die Infos nicht ergaunert? Das ist ein modernes Märchen. ChatGPT interessiert sich nicht für Erfolg, Befriedigung oder andere menschliche Dinge. Es ist ein intelligenter Roboter.

    • Bei KI gibt es eine massive Konkurrenz mindestens der USA und Chinas. Mit Abstand auch noch anderer Staaten. Irgendein Verbot in einem Teil der Welt ist absolut sinnlos, weil die anderen Teile der Welt die KI weiterentwickeln.

  25. Ein Ethikrat zur Verhinderung ungebildeter und unfähiger Menschen in Führungspositionen des Staates wäre dringender nötig.

    • Vielleicht könnten wir unsere Regierung gegen ChatGPT tauschen.

      Dann wäre die Politk zwar immer noch etwas wokegrünklimaverseucht, aber so einen antilogischen, destruktiven Irrsinn wie die momentane Politik würde das Programm vermutlich nicht machen. ;).

Einen Kommentar abschicken