علماء يحذرون: الذكاء الاصطناعي قد يُستخدم في صناعة أسلحة بيولوجية فتاكة

admin
منوعات
admin1 أغسطس 2023آخر تحديث : منذ سنة واحدة
علماء يحذرون: الذكاء الاصطناعي قد يُستخدم في صناعة أسلحة بيولوجية فتاكة

أطلق مجموعة من العلماء تحذيراً هو الأقوى والأخطر حتى الآن فيما يتعلق بالذكاء الاصطناعي ومخاطره، حيث حذروا من أن هذه التكنولوجيا قد يتم استخدامها في صناعة وإنتاج الأسلحة البيولوجية، بما يهدد البشرية بأكملها.

وقالت صحيفة «واشنطن بوست» إن قادة الذكاء الاصطناعي الثلاثة، وأثناء شهادتهم في جلسة استماع بالكونغرس، حذروا من أن التسارع الكبير في تطوير الذكاء الاصطناعي قد يؤدي إلى أضرار جسيمة خلال السنوات القليلة المقبلة، تضاهي الإرهابيين الذين يستخدمون التكنولوجيا لصنع أسلحة بيولوجية.
ونقلت الصحيفة عن أستاذ الذكاء الاصطناعي في جامعة «مونتريال» والمعروف بأحد آباء علوم الذكاء الاصطناعي الحديثة، يوشوا بنغيو، قوله إن «الولايات المتحدة يجب أن تقود خطط التعاون الدولي لتقنين واستخدام الذكاء الاصطناعي وتنظيم استخدام التكنولوجيا النووية على مستوى العالم».
وحذر الرئيس التنفيذي لشركة «أنثروبيك» الناشئة في مجال الذكاء الاصطناعي، داريو أمودي، من أن «الخوف من الذكاء الاصطناعي المتطور يكمن في إمكانية استخدامه لإنتاج فيروسات خطيرة وأسلحة بيولوجية أخرى في أقل من سنتين».
من جانبه، قال أستاذ علوم الكمبيوتر بجامعة كاليفورنيا في بيركلي، ستيوارت راسل، إن «الذكاء الاصطناعي من الصعب فهمه والتحكم في طريقة عمله بشكل كامل مقارنة بالتقنيات التكنولوجية الأخرى».
ووفقا للصحيفة، أظهرت جلسة الاستماع حجم المخاوف بشأن تجاوز الذكاء الاصطناعي للذكاء البشري والخروج عن نطاق السيطرة لإلحاق الضرر بالبشرية والذي قد أصبح واقعا وليس خيالا علميا.
لكن في الأشهر الستة الماضية، بدأ عدد من الباحثين البارزين في مجال الذكاء الاصطناعي، بما في ذلك بنغيو، بالتحرك لتحذير العالم من مخاوف المصاحبة له، وحث السياسيون على ضرورة الانتباه لهذه التهديدات باعتبارها أحد الأسباب التي تجعل الحكومات بحاجة إلى إصدار تشريعات.
يذكر أن جلسة الاستماع تعقد بعد أيام من قيام شركات الذكاء الاصطناعي بما في ذلك «أوبن إيه أي» و«ألفابيت» التباعة لغوغل، و«ميتا» بالتزامات طوعية للبيت الأبيض، الأسبوع الماضي، لتنفيذ تدابير مثل وضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي للمساعدة في جعل التكنولوجيا أكثر أماناً.

رابط مختصر

اترك تعليق

لن يتم نشر عنوان بريدك الإلكتروني.


شروط التعليق :

عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.