السلطة الوطنية لحماية البيانات (ANPD) حددت تعليق معالجة البيانات الشخصية من قبل Meta. الهدف, من تدريب الذكاء الإصطناعي للشركة, يثير أسئلة حاسمة حول حدود التشريع الحالي والاستخدام الأخلاقي لهذه التقنيات. لا يزال, تشدد القلق على معالجة بيانات أكثر من 102 مليون حائز في البرازيل دون الامتثال الواجب لقانون الحماية العامة للبيانات (LGPD)
قضية ميتا تلقي الضوء على قابلية تطبيق جزاءات الهيئة الوطنية لحماية البيانات على أي شركة تستخدم الذكاء التوليدي لتجهيز بيانات شخصية. يتم النقاش حاليا ما إذا كانت هذه التدابير هي محددة للشركات الكبيرة الحجم أو ما إذا تشير إلى نهج أكثر صرامة التي يمكن أن تمتد إلى شركات أخرى من التكنولوجيا
منذ تنفيذ تنفيذ LGPD في سبتمبر 2020, الشركات البرازيلية قد بذلت جهدا للتكيف مع المتطلبات التنظيمية الجديدة. ومع ذلك, وفقًا لدراسة IT Trends Snapshot 2023 من Logicalis, شركة عالمية لحلول وخدمات تكنولوجيا المعلومات, فقط 36% ذكروا أنهم تماما متوافقين مع المعايير الموضوعة
في ظل هذا السيناريو, شركات متخصصة في الاستشارات القانونية لشركات التكنولوجيا تسعى لفهم كيفية ضمان الاستخدام المسؤول للبيانات الشخصية دون تكبد عقوبات مماثلة. ال SAFIE, شركة تأسست في 2020 التي تقدم حلول من البنية التحتية القانونية, هو واحد منهم. لوكاس مانتوفاني, شريك ومؤسس مشارك لـ SAFIEيمكن تقديم رؤى حول كيفية اتخاذ تدابير استباقية لتجنب المخاطر التنظيمية, ضمان أن ممارسات الذكاء الاصطناعي تكون متماشية مع المعايير القانونية الناشئة والتعليق على مستقبل الخصوصية في البرازيل
الأسئلة التي يمكن معالجتها:
- ما هي حدود التشريع الحالي فيما يتعلق باستخدام البيانات الشخصية لتدريب AI
- ما حدث مع الميتا يمكن أن يحدث مع أي شركة أو فقط تلك التي تستخدم AI التوليد
- كيف يمكن للشركات أن تتجنب من هذا النوع من جزاء من ANPD
- هناك طريقة لجعل استخدام البيانات الشخصية لتدريب AI التوليد دون خرق القانون
- ما الذي يمكننا توقعه من المشهد التشريعي والسلطات في السنوات القادمة فيما يتعلق بالذكاء الاصطناعي وحماية البيانات الشخصية