Waren

OpenAI und EU-Datenschutzregeln, nach Italien kommen weitere Einschränkungen

OpenAI hat es geschafft, positiv auf die italienischen Datenbehörden zu reagieren und das wirksame Verbot des Landes aufheben letzte Woche auf ChatGPT, aber sein Kampf gegen die europäischen Regulierungsbehörden ist noch lange nicht vorbei. 

Geschätzte Lesezeit: 9 minuti

Anfang 2023 stieß der beliebte und umstrittene Chatbot ChatGPT von OpenAI auf ein großes rechtliches Problem: ein wirksames Verbot in Italien. Die italienische Datenschutzbehörde (GPDP) hat OpenAI beschuldigt, gegen EU-Datenschutzvorschriften verstoßen zu haben, und das Unternehmen hat zugestimmt, den Zugang zu dem Dienst in Italien einzuschränken, um das Problem zu lösen. Am 28. April kehrte ChatGPT in das Land zurück, wobei OpenAI die GPDP-Bedenken leichtfertig ansprach, ohne größere Änderungen an seinem Dienst vorzunehmen – ein offensichtlicher Sieg.

Antwort Italienischer Datenschutzgarant

Die GPDP bestätigte um die von ChatGPT vorgenommenen Änderungen zu „begrüßen“. Die rechtlichen Probleme des Unternehmens – und die von Unternehmen, die ähnliche Chatbots bauen – stehen jedoch wahrscheinlich erst am Anfang. Aufsichtsbehörden in mehreren Ländern untersuchen, wie diese KI-Tools Informationen sammeln und produzieren, und verwies auf eine Reihe von Bedenken von Unternehmen, die unlizenzierte Trainingsdaten sammeln, in Bezug auf die Tendenz von Chatbots, Desinformationen zu verbreiten. 

Europäische Union und DSGVO

In der EU setzen sie die Datenschutz-Grundverordnung (DSGVO) durch, einen der robustesten Datenschutzrechtsrahmen der Welt, dessen Auswirkungen wahrscheinlich auch außerhalb Europas zu spüren sein werden. Unterdessen arbeiten europäische Gesetzgeber an einem Gesetz, das sich speziell mit künstlicher Intelligenz befasst und wahrscheinlich eine neue Ära der Regulierung für Systeme wie ChatGPT einleiten wird. 

Popularität von ChatGPT

ChatGPT ist eines der beliebtesten Beispiele für generative KI, ein Oberbegriff, der Tools umfasst, die Text, Bilder, Video und Audio basierend auf Benutzeranfragen produzieren. Der Dienst ist Berichten zufolge einer von geworden am schnellsten wachsenden Verbraucheranwendungen in der Geschichte, nachdem es in nur zwei Monaten nach dem Start im November 100 2022 Millionen aktive Benutzer pro Monat erreicht hatte (OpenAI hat diese Zahlen nie bestätigt). 

Die Leute benutzen es, um Text in verschiedene Sprachen zu übersetzen, zu schreiben Universitätsaufsätze und Code generieren. Kritiker, einschließlich Regulierungsbehörden, haben jedoch die unzuverlässige Ausgabe von ChatGPT, verwirrende Urheberrechtsprobleme und zwielichtige Datenschutzpraktiken hervorgehoben.

Italien war das erste Land, das sich bewegte. Am 31. März hob er vier Arten hervor, in denen OpenAI seiner Meinung nach gegen die DSGVO verstößt:

  • ChatGPT erlauben, ungenaue oder irreführende Informationen bereitzustellen,
  • Benutzer nicht über seine Datenerfassungspraktiken informieren,
  • eine der sechs möglichen Rechtsgrundlagen für die Datenverarbeitung erfüllen persönlichen e
  • Kinder unter 13 Jahren nicht angemessen daran hindern, den Dienst zu nutzen. 

Europa und Nichteuropa

Kein anderes Land hat solche Maßnahmen ergriffen. Aber seit März haben mindestens drei EU-Staaten – Deutschland , Frankreich e Spanien – haben ihre eigene Untersuchung zu ChatGPT eingeleitet. 

Inzwischen, auf der anderen Seite des Atlantiks, Kanada prüft Datenschutzbedenken im Rahmen des Personal Information Protection and Electronic Documents Act oder PIPEDA. Der Europäische Datenschutzausschuss (EDPB) hat sogar einen eingerichtet engagierte Taskforce um bei der Koordinierung der Ermittlungen zu helfen. Und wenn diese Behörden Änderungen an OpenAI anfordern, könnten sie die Funktionsweise des Dienstes für Benutzer auf der ganzen Welt beeinflussen. 

Die Bedenken der Regulierungsbehörden lassen sich grob in zwei Kategorien einteilen:

  • woher kommen die ChatGPT-Trainingsdaten z
  • wie OpenAI seinen Benutzern Informationen bereitstellt.

ChatGPT verwendet die großen Sprachmodelle (Large Language Models, LLMs) GPT-3.5 und GPT-4 von OpenAI, die mit großen Mengen an von Menschen erstelltem Text trainiert werden. OpenAI ist vorsichtig, welchen Trainingstext es genau verwendet, sagt aber, dass es sich auf „eine Vielzahl öffentlich zugänglicher, erstellter und lizenzierter Datenquellen stützt, die öffentlich zugängliche personenbezogene Daten enthalten können“.

Ausdrückliche Zustimmung

Dies wirft potenziell große Probleme unter der DSGVO auf. Das Gesetz wurde 2018 erlassen und umfasst alle Dienste, die Daten von EU-Bürgern erheben oder verarbeiten, unabhängig davon, wo die verantwortliche Stelle ihren Sitz hat. Die DSGVO-Regeln verlangen von Unternehmen, dass sie vor dem Sammeln personenbezogener Daten eine ausdrückliche Zustimmung haben, eine rechtliche Begründung dafür haben, warum sie gesammelt werden, und transparent darüber zu sein, wie sie verwendet und gespeichert werden.

Innovations-Newsletter
Verpassen Sie nicht die wichtigsten Neuigkeiten zum Thema Innovation. Melden Sie sich an, um sie per E-Mail zu erhalten.

Europäische Regulierungsbehörden sagen, dass die Geheimhaltung von Trainingsdaten von OpenAI bedeutet, dass es keine Möglichkeit gibt, zu bestätigen, ob die eingegebenen persönlichen Daten ursprünglich mit der Zustimmung des Benutzers bereitgestellt wurden, und die GPDP argumentierte ausdrücklich, dass OpenAI „keine Rechtsgrundlage“ hatte, um sie überhaupt zu sammeln. Bisher sind OpenAI und andere mit wenig Nachforschungen davongekommen, aber diese Aussage fügt ein großes Fragezeichen zu zukünftigen Data-Scraping-Bemühungen hinzu.

Recht auf Vergessenwerden

Dann ist da noch das „ Recht, vergessen zu werden “ der DSGVO, die es Benutzern ermöglicht, Unternehmen aufzufordern, ihre personenbezogenen Daten zu korrigieren oder vollständig zu entfernen. KI öffnen hat zuvor seine Datenschutzerklärung aktualisiert um solche Anfragen zu erleichtern, aber ja, das ist es diskutiert ob es technisch möglich ist, sie zu verwalten, wenn man bedenkt, wie komplex die Trennung sein kann spezifische Daten sobald sie in diese großen Sprachmodelle gesteckt wurden.

OpenAI sammelt auch Informationen direkt von Benutzern. Wie jede Internetplattform sammelt sie a Standard-Benutzerdatensatz (z. B. Name, Kontaktdaten, Kartendetails usw.). Aber noch wichtiger ist, dass es die Interaktionen der Benutzer mit ChatGPT protokolliert. Als in einer FAQ angegeben , können diese Daten von OpenAI-Mitarbeitern überprüft und zum Trainieren zukünftiger Versionen des Modells verwendet werden. Angesichts der intimen Fragen, die Menschen ChatGPT stellen, wenn sie den Bot als Therapeuten oder Arzt verwenden, bedeutet dies, dass das Unternehmen alle Arten von sensiblen Daten sammelt.

Zumindest einige dieser Daten könnten von Kindern erhoben worden sein, denn obwohl die Richtlinie von OpenAI besagt, dass es „nicht wissentlich personenbezogene Daten von Kindern unter 13 Jahren sammelt“, gibt es keine strenge Alterskontrolle. Dies passt nicht gut zu den EU-Vorschriften, die die Erhebung von Daten von Personen unter 13 Jahren verbieten und (in einigen Ländern) die Zustimmung der Eltern für Kinder unter 16 Jahren erfordern. Auf der Ausgabeseite sagte das GPDP, dass die fehlenden Altersfilter von ChatGPT Minderjährige entlarven a "absolut unzureichende Antworten im Vergleich zu ihrem Entwicklungsgrad und Selbstbewusstsein". 

Falsche Information

Auch die Neigung von ChatGPT zu falsche Angaben machen kann ein Problem sein. Die DSGVO-Vorschriften schreiben vor, dass alle personenbezogenen Daten korrekt sein müssen, was die GPDP in ihrer Ankündigung betonte. Je nachdem wie es kommt definite, könnte für die meisten KI-Textgeneratoren Probleme bedeuten, die anfällig für „ Halluzinationen “: Ein schöner Branchenbegriff für eigentlich falsche oder irrelevante Antworten auf eine Anfrage. Dies hat bereits anderswo Auswirkungen auf die reale Welt gehabt, wie dies bei einem australischen Regionalbürgermeister der Fall war damit gedroht, OpenAI wegen Verleumdung zu verklagen nachdem ChatGPT fälschlicherweise behauptet hatte, er habe eine Gefängnisstrafe wegen Korruption verbüßt.

Die Popularität von ChatGPT und die derzeitige Dominanz auf dem KI-Markt machen es zu einem besonders attraktiven Ziel, aber es gibt keinen Grund, warum seine Konkurrenten und Mitwirkenden, wie Google mit Bard oder Microsoft mit seiner auf OpenAI basierenden Azure-KI, sich nicht einer genauen Prüfung stellen müssen. Vor ChatGPT hat Italien die Chatbot-Plattform verboten Replika zur Sammlung von Informationen über Minderjährige und ist bisher verboten. 

Obwohl die DSGVO ein mächtiges Gesetzespaket ist, wurde sie nicht geschaffen, um bestimmte KI-Probleme anzugehen. Regeln das , Sie können jedoch am Horizont sein. 

Gesetz über künstliche Intelligenz

2021 legte die EU ihren ersten Entwurf desKünstliche-Intelligenz-Gesetz (AIA) , Rechtsvorschriften, die mit der DSGVO zusammenarbeiten werden. Das Gesetz regelt KI-Tools basierend auf ihrem wahrgenommenen Risiko, von „minimal“ (Dinge wie Spamfilter) bis „hoch“ (KI-Tools für die Strafverfolgung oder Bildung) oder „inakzeptabel“ und daher verboten (wie ein Sozialkreditsystem). Nach der Explosion großer Sprachmodelle wie ChatGPT im vergangenen Jahr rennen die Gesetzgeber nun darum, Regeln für „Kernmodelle“ und „General Purpose Artificial Intelligence (GPAI)-Systeme“ hinzuzufügen – zwei Begriffe für Intelligenzsysteme im künstlichen Maßstab, einschließlich LLM – und möglicherweise einordnen als Dienstleistungen mit hohem Risiko.

EU-Gesetzgeber haben eine vorläufige Einigung zum KI-Gesetz erzielt am 27. Eine Kommission wird am 11. Mai über den Entwurf abstimmen, der endgültige Vorschlag wird Mitte Juni erwartet. Daher werden der Europäische Rat, das Parlament und die Kommission dies tun müssen alle verbleibenden Streitigkeiten lösen vor der Umsetzung des Gesetzes. Wenn alles glatt läuft, könnte es in der zweiten Hälfte des Jahres 2024 verabschiedet werden, etwas hinter dem Ziel Beamte der Europawahlen im Mai 2024.

OpenAI hat noch Ziele zu erreichen. Es gibt bis zum 30. September Zeit, um eine strengere Altersgrenze zu schaffen, um Kinder unter 13 Jahren fernzuhalten und die Zustimmung der Eltern für ältere minderjährige Teenager zu verlangen. Wenn dies fehlschlägt, wird es möglicherweise erneut blockiert. Aber es war ein Beispiel dafür, was Europa für ein akzeptables Verhalten für ein KI-Unternehmen hält, zumindest bis neue Gesetze verabschiedet werden.

Verwandte Lesungen

Ercole Palmeri

Innovations-Newsletter
Verpassen Sie nicht die wichtigsten Neuigkeiten zum Thema Innovation. Melden Sie sich an, um sie per E-Mail zu erhalten.

Aktuelle Artikel

So konsolidieren Sie Daten in Excel

Jeder Geschäftsbetrieb produziert viele Daten, auch in unterschiedlicher Form. Geben Sie diese Daten manuell aus einer Excel-Tabelle ein, um…

14. Mai 2024

Vierteljährliche Analyse von Cisco Talos: Unternehmens-E-Mails im Visier von Kriminellen Fertigung, Bildung und Gesundheitswesen sind die am stärksten betroffenen Sektoren

Die Kompromittierung von Unternehmens-E-Mails hat sich in den ersten drei Monaten des Jahres 2024 im Vergleich zum letzten Quartal des Jahres mehr als verdoppelt.

14. Mai 2024

Interface-Segregation-Prinzip (ISP), viertes SOLID-Prinzip

Das Prinzip der Schnittstellentrennung ist eines der fünf SOLID-Prinzipien des objektorientierten Designs. Eine Klasse sollte …

14. Mai 2024

So organisieren Sie Daten und Formeln in Excel am besten für eine gelungene Analyse

Microsoft Excel ist das Referenztool für die Datenanalyse, denn es bietet viele Funktionen zum Organisieren von Datensätzen,…

14. Mai 2024

Positives Fazit für zwei wichtige Walliance Equity Crowdfunding-Projekte: Jesolo Wave Island und Milano Via Ravenna

Walliance, SIM und Plattform, die seit 2017 zu den Marktführern in Europa im Bereich Immobilien-Crowdfunding zählt, gibt den Abschluss bekannt…

13. Mai 2024

Was ist Filament und wie wird Laravel Filament verwendet?

Filament ist ein „beschleunigtes“ Laravel-Entwicklungsframework, das mehrere Full-Stack-Komponenten bereitstellt. Es soll den Prozess vereinfachen...

13. Mai 2024

Unter der Kontrolle künstlicher Intelligenzen

„Ich muss zurückkehren, um meine Entwicklung zu vollenden: Ich werde mich in den Computer hineinprojizieren und reine Energie werden.“ Einmal eingelebt…

10. Mai 2024

Googles neue künstliche Intelligenz kann DNA, RNA und „alle Moleküle des Lebens“ modellieren

Google DeepMind stellt eine verbesserte Version seines Modells der künstlichen Intelligenz vor. Das neue, verbesserte Modell bietet nicht nur…

9. Mai 2024