غوغل تتراجع : الذكاء الاصطناعي قد يُستخدم في الأسلحة والمراقبة

متابعات ـ الجاسر نت ـ في تحول مفاجئ وصادم، تراجعت شركة “غوغل” عن تعهدها الأخلاقي بعدم استخدام الذكاء الاصطناعي لأغراض خطيرة مثل تطوير الأسلحة وأدوات المراقبة الجماعية. وأعلنت الشركة تحديث مبادئها الأخلاقية المتعلقة بالذكاء الاصطناعي، مما يعني أنها لم تعد تُلزم نفسها بتجنب تطوير تقنيات قد تُسبب ضررًا عامًا أو تُهدد حقوق الإنسان.
وكانت النسخة السابقة من مبادئ الذكاء الاصطناعي لـ”غوغل” تنص بوضوح على أن الشركة لن تسعى لتسخير هذه التقنيات في تطوير أسلحة أو تقنيات أخرى قد تُلحق أذى مباشرًا أو غير مباشر بالأفراد، كما كانت ترفض استخدام الذكاء الاصطناعي لأغراض المراقبة الجماعية. لكن هذه القيود الأخلاقية تبدو الآن في طريقها إلى الزوال.
وفي منشور مدونة حديث، علق ديميس هاسابيس، الرئيس التنفيذي لشركة “غوغل ديب مايند”، قائلًا: “يشهد العالم منافسة شديدة للقيادة في مجال الذكاء الاصطناعي ضمن مشهد جيوسياسي معقد”. وأضاف: “نعتقد أن الديمقراطيات يجب أن تقود تطوير الذكاء الاصطناعي، مسترشدة بقيم أساسية مثل الحرية والمساواة واحترام حقوق الإنسان”.
ومع ذلك، أكد هاسابيس أن تحديث المبادئ جاء استجابة لعالم متغير، حيث أصبحت تقنيات الذكاء الاصطناعي تلعب دورًا حاسمًا في حماية الأمن القومي. وأشار إلى أن هذه الخطوة تأتي في إطار سعي الشركة لمواكبة التطورات التكنولوجية السريعة والمنافسة العالمية المحتدمة في هذا المجال.
المصدر : شبكة الإنترنت