حسب ما ذكرت صحيفة نيويورك تايمز، أن إيلون ماسك ومجموعة من خبراء الذكاء الاصطناعي والمديرين التنفيذيين في هذا المجال إلى التمهل في عملية تطوير وتدريب أنظمة ذكاء اصطناعي أقوى من نظام GPT-4. جاءت هذه الدعوة ضمن خطاب مفتوح، طالبوا فيه بالتوقف لمدة ستة أشهر عن تطوير تلك الأنظمة، وأشاروا فيه إلى المخاطر المحتملة التي يمكن أن تتسبب بها على المجتمعات والإنسانية.

صدر هذا الخطاب عن معهد Future of Life، ووقع عليه أكثر من 1000 شخصية بارزة في قطاع التكنولوجيا، بما في ذلك إيلون ماسك الرئيس التنفيذي لشركة تسلا، و عماد مُستاك الرئيس التنفيدي لشركة Stability AI، وباحثون من شركة DeepMind، والباحثان المرموقان عالمياً ستيوارت راسل وجوشوا بينجو، بالإضافة إلى الشريك المؤسس لشركة ابل، ستيف وزنياك.

(مخاوف من سباقات خارج نطاق السيطرة في الذكاء الاصطناعي)

طرح الخطاب العديد من المخاطر المحتملة التي قد تؤثر على المجتمعات والحضارة في حال تطوير أنظمة الذكاء الاصطناعي المنافسة للبشر، وما يترتب عليها من اضطرابات اقتصادية وسياسية واسعة النطاق. و دعا شركات تطوير تلك الأنظمة إلى التعاون مع واضعي السياسات لضمان حوكمة القطاع وإخضاعه لإشراف السلطات التنظيمية. و جاء في الخطاب: “لا ينبغي تطوير أنظمة الذكاء الاصطناعي القوية إلا عندما نتيقن من نفعها وفائدتها، والسيطرة على الأخطار المترتبة عليها”.

المخاوف المتعلقة بالذكاء الاصطناعي هي مخاوف حقيقية ومتزايدة، وتتضمن تحديات أخلاقية وقانونية وتأثيرات اجتماعية واقتصادية. وفي ظل هذه المخاوف كلها، صرّح المتحدث باسم مؤسسة Future of Life سام ألتمان، رئيس شركة OpenAI،أنه لم يوقع الرسالة، ولم تستجب شركته حتى الآن لطلبات التوقف عن تطوير الأنظمة. وكان غاري ماركوس، أستاذ في علم النفس والعلوم العصبية بجامعة نيويورك وأحد الموقعين على الخطاب، قد صرح قائلًا : “هذا الخطاب بحد ذاته ليس مثالياً، بيد أنه بادرة مع حسنة النية. فعلينا أن نتمهل قليلاً ريثما نستوعب تداعيات تطوير تلك الأنظمة استيعاباً أفضل. فهذا الأمر قد يسبب أضرار جسيمة، خاصة أن الشركات الكبرى تتكتم عن أفعالها، مما يصعب على المجتمع مقاومة الأضرار التي تحدث لاحقاً”.

و يدعوا الخطاب أيضا إلى مناقشة هذه التحديات وتوعية الجمهور بشأنها، وأن تعمل الشركات والمنظمات والمجتمع الدولي على وضع إطار تنظيمي وقانوني يضمن استخدام الذكاء الاصطناعي بطريقة آمنة ومسؤولة. ويجب أن تتحمل الشركات المسؤولية الكاملة عن تطوير واستخدام هذه الأنظمة وتحمل العواقب القانونية والمالية لأي تصرف غير مسؤول.

المصدر :

https://futureoflife.org/open-letter/pause-giant-ai-experiments/

https://twitter.com/FLIxrisk/status/1640976240382287873?ref_src=twsrc%5Egoogle%7Ctwcamp%5Eserp%7Ctwgr%5Etweet%7Ctwtr%5Etrue

https://www.nytimes.com/2023/03/29/technology/ai-artificial-intelligence-musk-risks.html

ترجمة و تحرير : زياد بن هلال