US-Aufsichtsbehörden untersuchen ChatGPT zum ersten Mal offiziell! FTC „feuert“ auf OpenAI

巴比特_

Autor: He Hao

Bildquelle: Erstellt vom Unbounded AI-Tool

** Mediennachrichten vom Donnerstag zeigten, dass OpenAI von der US-amerikanischen Federal Trade Commission (FTC) untersucht wird. Die FTC sandte ein zivilrechtliches Ermittlungsersuchensschreiben an OpenAI. Der Schwerpunkt der Untersuchung liegt auf der Frage, ob der Chat-Roboter ChatGPT von OpenAI relevanten Personen durch die Veröffentlichung falscher Informationen Schaden zugefügt hat, und wie OpenAI mit den damit verbundenen Risiken umgeht. **

** Die FTC-Untersuchung ist das erste Mal, dass US-Regulierungsbehörden offiziell eine Überprüfung der Risiken eingeleitet haben, die von Chatbots mit künstlicher Intelligenz ausgehen. **Die FTC unter der Leitung von Lina Khan verfügt über weitreichende Befugnisse zur Überwachung unlauterer und irreführender Geschäftspraktiken. ** Die Untersuchung der FTC bedeutet, dass ChatGPT, die derzeit angesagteste App der Welt, potenziellen rechtlichen Bedrohungen ausgesetzt ist. **

Die FTC schrieb in dem Brief:

Bitte beschreiben Sie detailliert, inwieweit Sie Maßnahmen ergriffen haben, um das Risiko anzugehen oder zu mindern, dass Ihr Produkt mit großem Sprachmodell falsche, irreführende oder verleumderische Aussagen über reale Personen generiert.

Aktuelle Gesetzgeber sind besonders besorgt über die Gefahr sogenannter Deepfake-Videos, die fälschlicherweise reale Menschen darstellen, die peinliche Handlungen ausführen oder peinliche Dinge sagen.

Einschlägige Brancheninsider sind jedoch der Ansicht, dass die FTC zu weit gefasst ist. Die Medien zitierten Adam Kovacevich, CEO der Chamber of Progress, einer Technologiehandelsgruppe, mit den Worten: „Wenn ChatGPT das Falsche über jemanden sagt und seinem Ruf schaden kann, fällt das dann in die Zuständigkeit der FTC? Ich denke, das ist überhaupt nicht klar. Solche Dinge liegen eher im Bereich der Sprache, im Bereich der Regulierung der Sprache, was außerhalb des Zuständigkeitsbereichs der FTC liegt.“

Die FTC stellte in dem Brief auch spezifische Fragen zu den Datensicherheitspraktiken und dem Datenschutz von OpenAI, um festzustellen, ob das Unternehmen unlautere oder betrügerische Praktiken anwendet. Die FTC führte einen Vorfall im Jahr 2020 an, als OpenAI einen Fehler aufdeckte, der es Benutzern ermöglichte, die Chat-Gespräche anderer Personen und einige zahlungsbezogene Informationen einzusehen.

Insgesamt warf der Brief der FTC Dutzende Fragen auf. Weitere Themen sind: die technischen Details des ChatGPT-Designs, die Praxis des Trainings von KI-Modellen, die Marketingbemühungen von OpenAI, der Umgang mit persönlichen Daten der Benutzer, der Kontext von Benutzerbeschwerden und wie Unternehmen die Wahrnehmung der Chatbot-Genauigkeit und -Zuverlässigkeit beurteilen. Die FTC forderte OpenAI auf, relevante interne Materialien zu teilen.

Es gibt erste Anzeichen für den Schritt der FTC. Im Mai dieses Jahres gab die FTC eine Warnung heraus, dass sie genau beobachtet, wie Unternehmen sich für den Einsatz künstlicher Intelligenztechnologien, einschließlich neuer generativer künstlicher Intelligenztools, entscheiden, um einen echten und signifikanten Einfluss auf die Verbraucher zu haben.

Lina Khan, die am Donnerstag vor dem Justizausschuss des US-Repräsentantenhauses aussagte, wurde von republikanischen Gesetzgebern wegen ihrer harten Durchsetzungspolitik scharf kritisiert. Bei der Anhörung zur OpenAI-Untersuchung befragt, lehnte Khan eine Stellungnahme ab, sagte aber:

**Zu den umfassenderen Bedenken der FTC gehört, dass ChatGPT und andere KI-Dienste auf riesigen Datenmengen trainiert werden, ohne zu überprüfen, welche Daten von diesen Unternehmen verwendet werden. Wir haben Berichte über die Offenlegung sensibler Daten von Personen als Reaktion auf Anfragen anderer gehört. Wir hören, dass diffamierende Aussagen und völlig unwahre Dinge passieren. Das ist die Art von Betrug, über die wir uns Sorgen machen. **

Während sich der Brand auf der ganzen Welt ausbreitet, rücken generative künstliche Intelligenzprodukte zunehmend in den Fokus von Regulierungsbehörden auf der ganzen Welt. Im Mai versuchte die Biden-Regierung, eine nationale KI-Strategie zu entwickeln, um Fehlinformationen und andere potenzielle Mängel der Technologie zu verhindern. Im März dieses Jahres haben italienische Aufsichtsbehörden ChatGPT einmal verboten und gleichzeitig die Sammlung personenbezogener Daten durch das Unternehmen überprüft. ChatGPT ging einige Wochen später in Italien wieder online, nachdem OpenAI seine Datenschutzrichtlinien zugänglicher gemacht und ein Tool zur Überprüfung des Benutzeralters eingeführt hatte.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare