Home اعمال كيف أسقط الكونجرس الكرة بشأن سلامة الذكاء الاصطناعي

كيف أسقط الكونجرس الكرة بشأن سلامة الذكاء الاصطناعي

19
0



أصدرت فرقة عمل الذكاء الاصطناعي المكونة من الحزبين الجمهوري والديمقراطي في مجلس النواب تقريرها الذي طال انتظاره تقرير سياسة الذكاء الاصطناعي في الأيام الأخيرة لهذا الكونجرس. يقدم التقرير تحليلا مدروسا وشاملا، لكنه لا يرقى إلى مستوى معالجة التحدي الأكثر أهمية في عصرنا: منع المخاطر الكارثية الناجمة عن الذكاء الاصطناعي المتقدم.

باعتباري شخصًا يقود منظمة مكرسة للتخفيف من مخاطر الذكاء الاصطناعي من خلال تطوير السياسات، فإنني أقدر العمل الدقيق الذي تم إنجازه في هذا التقرير.

ويستحق النائبان جاي أوبرنولت (جمهوري من كاليفورنيا) وتيد ليو (ديمقراطي من كاليفورنيا) الثناء لرعاية هذا الجهد بين الحزبين، والذي يقدم العديد من التوصيات القيمة. يناقش التقرير بذكاء الحاجة إلى النشر المسؤول للذكاء الاصطناعي، ومتطلبات الشفافية، وأمن البيانات القوي، والرقابة البشرية الهادفة.

ولكن بعد عامين من مداولات الكونجرس بشأن الذكاء الاصطناعي، نحتاج إلى ما هو أكثر من التحليل الدقيق – نحتاج إلى اتخاذ إجراءات حاسمة. يتسارع تطوير الذكاء الاصطناعي بسرعة، مع نشر أنظمة جديدة وأكثر قوة كل بضعة أشهر. وبدون حواجز حماية جديدة، تشكل أنظمة الذكاء الاصطناعي هذه مخاطر بالغة على مستقبل البشرية.

كما أوضح “الأب الروحي للذكاء الاصطناعي” يوشوا بنجيو في المؤتمر مجموعة اسبن الاستراتيجية في أكتوبر/تشرين الأول من هذا العام، من المرجح أن يحاول الذكاء الاصطناعي المتقدم بالقدر الكافي السيطرة على الاقتصاد العالمي أو حتى “القضاء على البشر تماما” لصالح الحفاظ على نفسه.

في الشهر الماضي، الرئيس التنفيذي السابق لشركة جوجل إريك شميدت حذر أنه عندما يصل نظام الكمبيوتر إلى نقطة حيث يمكنه تحسين نفسه، “فنحن بحاجة جدية إلى التفكير في فصله”.

شميدت وبينجيو ليسا وحدهما. متوسط ​​النتيجة من الأخيرة استطلاع من بين 2778 خبيرًا في مجال التعلم الآلي، قدروا أن هناك فرصة بنسبة 16% في أن يؤدي الذكاء الاصطناعي الفائق الذكاء إلى إضعاف البشرية تمامًا عند ظهورها. ووجد الاستطلاع نفسه أن هناك فرصة بنسبة 10% لاختراع الذكاء الفائق في وقت مبكر من عام 2027، وفرصة بنسبة 50% لوصول الذكاء الفائق بحلول عام 2047.

ويوافق الناخبون الأميركيون. في استطلاع وفي استطلاع أجراه معهد سياسات الذكاء الاصطناعي في نوفمبر، قال 62% من المشاركين إنهم يفضلون نهج إيلون ماسك المتمثل في “التركيز على مخاطر الذكاء الاصطناعي الكارثية أثناء بناء البنية التحتية”، مقارنة بـ 11% فقط ممن فضلوا نهج مارك أندريسن المتمثل في “وجود قدر ضئيل من تنظيم الذكاء الاصطناعي بقدر الإمكان”. ممكن في كافة المجالات.”

ومن المؤسف أن تقرير فريق العمل التابع لمجلس النواب لا يعكس إجماع الناخبين الأميركيين.

في 273 صفحة تقرير يستخدم كلمة “كارثية” مرة واحدة فقط في الحاشية السفلية. وتفترض مناقشتها للمخاطر الكيميائية والبيولوجية والإشعاعية والنووية أن الذكاء الاصطناعي لن يصبح أبدًا متطورًا بما يكفي لمساعدة الجهات الفاعلة الخبيثة على تطوير أسلحة الدمار الشامل. إنه لا يفعل شيئًا لمعالجة إمكانية هروب أنظمة الذكاء الاصطناعي المتقدمة من السيطرة البشرية.

هذه ليست سيناريوهات خيال علمي يجب رفضها. وهي مخاطر تدعمها أفضل العلوم المتاحة، وتتطلب استجابات سياسية جادة. ولهذا السبب يدعو مركز سياسات الذكاء الاصطناعي، حيث أشغل منصب المدير التنفيذي، إلى وضع تشريعات قوية وفعالة لسلامة الذكاء الاصطناعي لضمان التطوير الآمن لقدرات الذكاء الاصطناعي الرائدة.

ولكي نكون واضحين، فإن التنظيم الفعال لا ينبغي أن يؤدي إلى خنق الإبداع. والعكس هو الصحيح ــ فمن الممكن أن تعمل أساليب الحوكمة المدروسة القائمة على المخاطر على تعزيز التقدم التكنولوجي المستدام في حين تحمي من النتائج الكارثية. ويفهم مؤلفو التقرير هذا المبدأ من الناحية النظرية، مشيرا أن “النهج المدروس والقائم على المخاطر في إدارة الذكاء الاصطناعي يمكن أن يعزز الابتكار بدلاً من خنقه”.

وإليك ما قد يبدو عليه الكونجرس القادم عندما يضع هذا المبدأ موضع التنفيذ:

أولا، تمويل المعهد الوطني للمعايير والتكنولوجيا بالكامل ومنحه الموارد اللازمة لتفعيل معايير سلامة الذكاء الاصطناعي. ستكون الخبرة الفنية لـ NIST حاسمة في إنشاء معايير قابلة للقياس لسلامة وموثوقية نظام الذكاء الاصطناعي.

ثانيا، ينبغي أن تبدأ العملية التشريعية في إنشاء هيئة تنظيمية فيدرالية مخصصة للذكاء الاصطناعي الحدودي، والتي ينبغي أن تتمتع بسلطة واضحة للمطالبة بتدريب أنظمة الذكاء الاصطناعي المتقدمة ونشرها بطرق تتجنب المخاطر الكارثية.

وكما تتأكد إدارة الطيران الفيدرالية من عدم سقوط طائراتنا من السماء، وكما تعمل المؤسسة الفيدرالية للتأمين على الودائع على حماية بنوكنا من الإفلاس، فنحن بحاجة إلى وكالة تتمتع بالسلطة والخبرة لحمايتنا من أسوأ الأضرار الناجمة عن الذكاء الاصطناعي المتقدم.

ثالثا، ينبغي منح المبلغين عن المخالفات داخل شركات الذكاء الاصطناعي حماية قانونية واضحة وشاملة تضمن حقهم في تحذير الحكومة بشأن قضايا السلامة الحرجة.

يوضح تقرير فريق عمل الذكاء الاصطناعي التابع لمجلس النواب خطوة مهمة إلى الأمام في قدرة الكونجرس على فهم الذكاء الاصطناعي والتعامل معه، لكن التقارير وحدها لن تحمينا من المخاطر التي تشكلها أنظمة الذكاء الاصطناعي القوية بشكل متزايد.

إن نافذة إنشاء حوكمة فعالة للذكاء الاصطناعي تنغلق بسرعة. وكل شهر دون اتخاذ إجراءات ملموسة يزيد من خطر فقدان السيطرة على هذه التكنولوجيا التحويلية. لقد أمضى الكونجرس عامين في دراسة التحديات التي يفرضها الذكاء الاصطناعي. الآن حان الوقت للعمل.

جيسون جرين لوي هو المدير التنفيذي لـ مركز سياسة الذكاء الاصطناعي.