لاحظ بعض مستخدمي شبكة لينكد إن الاحترافية إعدادًا جديدًا يُظهر أن المنصة تستخدم بياناتهم لتدريب نماذج الذكاء الاصطناعي التوليدي دون الحصول على موافقة مسبقة، وفقًا لتقرير نشرته 404 ميديا.
أوضحت لينكد إن أن البيانات تُستخدم لتحسين ميزات مثل المساعدة في الكتابة. هذه الميزة يمكن إيقاف تشغيلها في إعدادات الملف الشخصي، لكنها مفعلة افتراضيًا. وذكرت المنصة أنها تستخدم "تقنيات تعزيز الخصوصية" تُستخدم لإخفاء هوية المعلومات الشخصية وحمايتها، لكن مستخدميها غير راضين عن قدرة النظام الآلي على جمع معلومات سرية في البداية على الإطلاق.
من الجدير بالذكر أن لينكد إن لا تستخدم بيانات مواطني الدول الأوروبية التي تتمتع بقوانين خصوصية صارمة لتدريب ذكاءها الاصطناعي.
بالرغم من أن الشبكة الاجتماعية قد بدأت جمع البيانات، لم يتم تحديث شروط الخدمة الخاصة بلينكد إن في الوقت المناسب، وهي الأمور التي لم تعكسها الإدارة في الوثيقة منذ البداية، ولكن تم تصحيح الرقابة الآن. قال أحد ممثلي منصة TechRadar Pro: "سنقوم بإجراء تغييرات تمنح مستخدمي لينكد إن مزيدًا من الاختيارات والتحكم في البيانات التي نستخدمها لتدريب تقنيتنا في الذكاء الاصطناعي التوليدي. سنقوم بتنفيذ أدوات ذكاء اصطناعي جديدة كإعدادات افتراضية تفيد جميع المشاركين، وسنضمن أن أولئك الذين لديهم تفضيلات خصوصية محددة يمكنهم بسهولة عدم المشاركة. يمكن للناس إلغاء المشاركة، ولكنهم يتواجدون في لينكد إن للعثور على فرص العمل والاتصالات، ويعد الذكاء الاصطناعي التوليدي هو وسيلتنا لمساعدة المحترفين في هذه التغييرات."
تظهر هذه التطورات أهمية المجتمع في مواجهة التحديات المتعلقة بالخصوصية والأمان الرقمي، وتسلط الضوء على ضرورة الشفافية من قبل المنصات الكبرى التي تدير معلومات المستخدمين.
تابع موقعنا tech1new.com انضم إلى صفحتنا على فيسبوك و متابعتنا على منصة إكس (تويتر سابقاً) ، أو أضف tech1new.com إلى موجز أخبار Google الخاص بك للحصول على تحديثات إخبارية فورية ومراجعات وشروحات تقنية
ليست هناك تعليقات:
إرسال تعليق