OpenAI steht erneut im Zentrum von Datenschutzbedenken innerhalb der Europäischen Union. Deutsche Regulierungsbehörden haben eine Untersuchung zur Einhaltung der Datenschutzgrundverordnung und anderer Datenschutzgesetze bei dem Unternehmen eingeleitet. Die Behörden möchten insbesondere herausfinden, ob eine Datenschutz-Folgenabschätzung durchgeführt wurde und ob die Datenschutzrisiken kontrolliert werden. Die Datenschutzbeauftragte für Schleswig-Holstein, Marit Hansen, betonte, dass die deutschen Aufsichtsbehörden auch Informationen zu Fragen im Zusammenhang mit der Datenschutzgrundverordnung einholen möchten.
Dieser Schritt war zu erwarten, da die Regulierungsbehörden in Europa OpenAI bereits seit einiger Zeit zunehmend kritisiert und untersucht haben. Italien hat als erstes westliches Land ein Verbot für Produkte des Unternehmens verhängt, während OpenAI und lokale Aufsichtsbehörden noch klären müssen, ob das Unternehmen die Datenschutzgrundverordnung und die italienischen Datenschutzgesetze einhalten kann.
Kommt es zu einem Verbot?
Die europäischen Aufsichtsbehörden sind insbesondere besorgt über die Verwendung von Daten zur Schulung von KI-Modellen. Derzeit haben die Nutzer keine Möglichkeit, die Verwendung ihrer Daten abzulehnen oder Fehler in den Modellen zu korrigieren. Nach der Datenschutzgrundverordnung haben Personen das Recht, ihre Daten zu ändern oder sie aus den Systemen zu entfernen.
OpenAI-Nutzer, die die GPT-API des Unternehmens abonniert haben, machen sich zunehmend Sorgen. Kryptowährungshändler und -analysten, die fortschrittliche Bots mit dieser API aufbauen oder Drittanbieter-Apps nutzen, die die API zur Erstellung von Marktprognosen oder autonomem Handel in der EU nutzen, könnten rechtliche Schritte oder umfassende Verbote drohen.
Wenn es zu einem solchen Verbot kommt, könnten Unternehmen oder Personen, die diese Boards beim Kryptowährungshandel und für Analysen einsetzen, dazu gezwungen werden, sie außerhalb der EU zu betreiben.