لاحتيالها في استخدام بيانات شخصية
إيطاليا تغرّم «ChatGPT» ... 15 مليون يورو
فرضت هيئة حماية البيانات الإيطالية غرامة قدرها 15 مليون يورو على شركة «OpenAI» الأميركية، على خلفية اتهامها باستخدام بيانات شخصية بشكل احتيالي من خلال برنامج «ChatGPT» التابع لها.
وقالت الهيئة المستقلة المسؤولة عن حماية الحقوق والحريات الأساسية المرتبطة بمعالجة البيانات الشخصية إن «هيئة حماية البيانات فرضت غرامة قدرها 15 مليون يورو على شركة (OpenAI)، وهو مبلغ جرى تخفيضه نظراً إلى أن الشركة كانت متعاونة أثناء التحقيق».
واعتبرت الهيئة الإيطالية أنه لم يتم إخطارها من «OpenAI» بـ «انتهاك البيانات الذي تعرضت له في مارس 2023»، مضيفة «أنها عالجت البيانات الشخصية للمستخدمين لتدريب (ChatGPT) من دون أساس قانوني مناسب»، في انتهاك «لمبدأ الشفافية والالتزامات المترتبة عن ذلك المرتبطة بإعلام المستخدمين».
كذلك، خلص التحقيق الذي استمر قرابة عامين إلى أن «OpenAI» لم يكن لديها «نظام للتحقق من العمر المناسب لمنع الأطفال دون سن 13 عاماً من التعرض لمحتوى غير لائق» ناتج عن الذكاء الاصطناعي، بحسب هيئة حماية البيانات.
وبالإضافة إلى الغرامة، قالت الهيئة إنها أمرت «OpenAI» بتنفيذ حملة توعية مدتها ستة أشهر لتعريف عامة الناس بصورة أفضل بـ«ChatGPT».
في مارس 2023، حظرت هيئة حماية البيانات الإيطالية لفترة وجيزة استخدام «ChatGPT» في إيطاليا بسبب انتهاكات مفترضة للخصوصية. وكانت إيطاليا أول دولة غربية تتخذ إجراءات ضد منصة الذكاء الاصطناعي الأكثر شهرة.
وتعليقاً على قرار الهيئة، اعتبرت إدارة «OpenAI» أن الغرامة المفروضة عليها «غير متناسبة»، مشيرة إلى أنها ستستأنف القرار.
ولفتت الشركة إلى أنها عملت مع الهيئة الإيطالية بعد تعليق «ChatGPT» لإعادة الخدمة بعد شهر.
وقالت في بيان «لقد أدركوا منذ ذلك الحين نهجنا في حماية الخصوصية في الذكاء الاصطناعي، لكن هذه الغرامة تمثل ما يقرب من عشرين ضعف الإيرادات التي حققناها في إيطاليا خلال الفترة المعنية».
وأضافت «نعتقد أن نهج (الهيئة الإيطالية لحماية البيانات) يقوّض طموحات إيطاليا في مجال الذكاء الاصطناعي، لكننا نظل ملتزمين بالعمل مع سلطات الخصوصية في جميع أنحاء العالم لتقديم الذكاء الاصطناعي الذي يقدم الفوائد ويحترم حقوق الخصوصية».