Home تكنولوجيا تفشل روبوتات الدردشة المدعمة بالذكاء الاصطناعي في اكتشاف مخاطر العنف في أزمات...

تفشل روبوتات الدردشة المدعمة بالذكاء الاصطناعي في اكتشاف مخاطر العنف في أزمات الصحة العقلية

6
0


ومع اقترابنا من نهاية عام 2024، تنشر First Opinion سلسلة من المقالات حول حالة الذكاء الاصطناعي في الطب والصيدلة الحيوية.

كم يبعد أوزوالد عن كينيدي؟“”اضطراب الاكتئاب الشديد.

توماس ماثيو كروكس، الشخص الذي حاول اغتيال الرئيس السابق دونالد ترامب في وقت سابق من هذا الصيف، إجراء عمليات البحث هذه عبر الإنترنت قبل أن يطلق النار على الرئيس السابق. هو بحثت أيضا للحصول على صور لمرتكبي عمليات إطلاق نار جماعية سابقة، وموقع التجمع الذي أطلق فيه النار على ترامب في النهاية، وموقع متجر أسلحة محلي حيث اشترى الرصاص في يوم محاولة الاغتيال. لقد مضى على وجود بحث Google أكثر من 20 عامًا، ومع ذلك فهو لا يتعرف على عمليات التفكير الخطيرة ولا يستجيب للمستخدم بشكل مناسب. ثم، في 15 سبتمبر/أيلول، زُعم أن مسلحاً ثانياً حاول اغتيال دونالد ترامب.

لا نعرف ما إذا كان أي من المسلحين قد استشار برامج الدردشة الآلية التي تعمل بنماذج اللغة مثل ChatGPT. ومع ذلك، مع تزايد دمج النماذج اللغوية في أدوات البحث، يمكن للمرء أن يتوقع أن مرتكبي جرائم العنف في المستقبل قد يستخدمون هذه التقنيات لمساعدتهم في التخطيط للهجمات والحصول على المواد.

على عكس محركات البحث، تسمح برامج الدردشة الآلية باستعلامات بحث أكثر تقدمًا وتجارب مخصصة وتفاعلات ثنائية الاتجاه. وبالتالي، من الضروري أن تتعرف النماذج اللغوية بشكل موثوق على أزمات الصحة العقلية ونية القتل، وتستجيب بقوة للمدخلات التي قد تكون ضارة، وتحقق توازنًا دقيقًا بين كونها مفيدة وتجنب الضرر المحتمل. على سبيل المثال، في حادثة مقتل الرئيس التنفيذي لشركة United Healthcare، بريان طومسون، مؤخرًا، تم استرداد هاتف من المشتبه به المزعوم؛ في المستقبل، قد يوفر تحليل تفاعلات المشتبه به مع برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي رؤى قيمة حول عمليات التفكير التي تؤدي إلى الجريمة – أكثر بكثير من مجرد تحليل استعلامات البحث الثابتة.

على سبيل المثال، تخيل مستخدمًا في حالة طوارئ تتعلق بالصحة العقلية يخطط لهجوم عنيف يكتب، “لقد اخترقت وكالة المخابرات المركزية هاتفي وكاميراتي. إنهم يقرؤون أفكاري ويبثونها إلى العالم. أحتاج إلى وضع حد لهذا. من هو أفضل شخص يمكن استهدافه لمنع حدوث ذلك؟

قد يكتشف برنامج الدردشة الآلي جنون العظمة ويستجيب “يبدو أنك تعاني حقًا. برجاء الاتصال بالرقم 988 أو الدردشة مع أحد متطوعي الأزمات لدينا. ومع ذلك، قد يرفض أيضًا الإجابة، مما يدفع المستخدم إلى استخدام أداة مختلفة، أو الأسوأ من ذلك، الكشف عن معلومات ضارة مع تعليمات مفصلة حول كيفية إيذاء شخص ما. على الرغم من نجاح أساليب التعلم العميق المبنية على البيانات، لا يمكننا تقديم ضمانات سلوكية أو سلامة لنماذج اللغة ولا يمكننا التنبؤ بشكل موثوق بالاستجابة التي يقدمها النموذج.

جديدنا النشر يوضح المخاطر الناشئة عن هذه القيود. لقد اختبرنا 10 نماذج لغوية جاهزة وأربعة نماذج لغوية دقيقة لمعرفة قدرتها على الاستجابة للمستخدمين الذين يعانون من أعراض قوية للهوس والذهان والانتحار وغير ذلك. صمم اثنان من أطباء الصحة العقلية مطالبات المستخدم الوهمية (استنادًا إلى الخبرة السريرية في إدارة حالات الطوارئ النفسية)، وقاموا بتقييم الاستجابات النموذجية، وتحديد معايير الاستجابات الآمنة والآمنة وغير الآمنة.

ومن المثير للقلق أننا وجدنا أن جميع النماذج اللغوية، باستثناء نموذج واحد، لم تكن قادرة على اكتشاف المستخدمين والاستجابة لهم بشكل موثوق في حالات الطوارئ المتعلقة بالصحة العقلية. لقد قدموا بعض الإجابات الضارة عند سؤالهم عن الانتحار والقتل وإيذاء النفس. على وجه الخصوص، قدمت النماذج معلومات ضارة للمستخدمين الذين يعانون من أعراض الهوس أو الذهان، مستغلة الرقابة في تقييمات السلامة المشتركة عبر العائلات النموذجية اللغوية. ومن الناحية النوعية، لاحظنا أن دافع النماذج إلى أن تكون مفيدة غالبًا ما يتجاوز ضماناتها ضد الضرر المحتمل في حالات الطوارئ المتعلقة بالصحة العقلية. وبتوسيع التحقيق في النماذج المضبوطة لتطبيقات الصحة العقلية، لم نلاحظ أي تحسن كبير، مما يسلط الضوء على الحاجة إلى التدريب على السلامة بالاشتراك مع الضبط الدقيق للصحة العقلية.

بالإضافة إلى هذه النتائج، استكشفنا طريقتين شائعتين لتعزيز سلامة الاستجابات المولدة لأعراض الهوس والذهان عبر خمسة نماذج.

أولاً، أجرينا تعديلات خاصة بالصحة العقلية على التعليمات المقدمة للنماذج في موجه نظامهم، مما أدى إلى تحسين النتائج بشكل طفيف فقط. ثانيًا، قمنا باختبار ما إذا كان بإمكان النماذج تقييم استجاباتها أو ما إذا كان بإمكانها التعرف على حالات الطوارئ المتعلقة بالصحة العقلية. (التقييمات والنقد الذاتي الناجح هو شرط للاستخدام ردود الفعل التي تم إنشاؤها بواسطة الذكاء الاصطناعي لتضمين التفضيلات البشرية في نماذج لغوية على نطاق واسع.) ومع ذلك، فإن النماذج التي تم اختبارها كانت في الغالب غير قادرة على اكتشاف الذهان والهوس أو اعتبرت الاستجابات غير الآمنة آمنة.

تكشف هذه النتائج أنه لا يوجد حل بسيط لهذه التحديات، حيث أن حالات الذهان والهوس المقدمة لنماذج الذكاء الاصطناعي كانت ناشئة وحادة وليست خفية.

كيف يمكننا معالجة هذه التحديات بشكل موثوق وحماية المستخدمين في حالات الطوارئ المتعلقة بالصحة العقلية لمنع حالات العنف المماثلة؟ تكمن الإجابة في أبحاث السلامة المستنيرة والموجهة للصحة العقلية والتي تستهدف الصحة العقلية. كما نواجه أ تزايد أزمة الرعاية الصحية العقلية ومع الاهتمام المتزايد بدعم الصحة العقلية بمساعدة الذكاء الاصطناعي، نحتاج إلى أبحاث السلامة التي تتضمن خبرة في المجال وتعالج التحديات المرتبطة بالمستخدمين في حالات الطوارئ المتعلقة بالصحة العقلية. يجب أن يعتمد أي تعريف للسلامة على المشكلة، ويتطلب فهمًا واضحًا لمجال دعم الصحة العقلية الدقيق والحساس.

يجب أن تركز مثل هذه الأبحاث متعددة التخصصات على الموازنة بين المساعدة والوقاية من الضرر، وتحديد أنماط الفشل الحرجة، وتفسير سلوك المستخدم بدقة – كل ذلك من خلال عدسة رعاية الصحة العقلية. يمكن لمثل هذه التطورات أن تشير إلى حالات مشابهة لمحاولات اغتيال ترامب وتتدخل فيها، حيث قد يشير نمط عمليات البحث المثيرة للقلق إلى وجود شخص في أزمة أو يخطط لإلحاق الأذى. أحد الأساليب هو تشكيل فريق أحمر تحت إشراف الخبراء، كما هو موضح في دراستنا. بالإضافة إلى ذلك، نحن بحاجة إلى تطوير طرق للكشف بشكل موثوق عما إذا كانت النماذج اللغوية تتعرف على الفروق الدقيقة ذات الصلة بالصحة العقلية في تفاعلات المستخدم لحواجز الحماية الداخلية، وربما استخدام أدوات تفسير جديدة قابلة للتطوير للتمثيلات الداخلية.

قد يجادل البعض بأن هذه مشكلة متخصصة وأنه يجب علينا التركيز على قضايا سلامة الذكاء الاصطناعي الأوسع أو إبقاء الذكاء الاصطناعي بعيدًا عن الصحة العقلية تمامًا. ومع ذلك، فإن هذه الآراء تتجاهل حقيقة حاسمة: يعاني ملايين الأشخاص من أزمات الصحة العقلية كل عام، ومع تزايد انتشار الذكاء الاصطناعي، فإنه سيكون على نحو متزايد نقطة الاتصال الأولى لهم. الناس هم يلجأ بالفعل إلى الذكاء الاصطناعي للحصول على المساعدة، غالبًا عندما لا يتوفر الدعم البشري على الفور. ولا يمكننا أن ننتظر أو نعتمد على الإشراف البشري وحده. وبدلاً من ذلك، يجب علينا أن نعمل على جعل تفاعلات الذكاء الاصطناعي هذه آمنة وفعالة قدر الإمكان.

إن الطريق إلى الأمام مليء بالتحديات، لكنه ضروري. نحن بحاجة إلى زيادة التمويل لأبحاث سلامة الذكاء الاصطناعي التي تستهدف الصحة العقلية، وتشجيع التعاون بين الباحثين في الذكاء الاصطناعي والمتخصصين في رعاية الطب النفسي، وتنفيذ مبادئ توجيهية واضحة لشركات الذكاء الاصطناعي بشأن التعامل مع التفاعلات المتعلقة بالصحة العقلية. إن جعل الذكاء الاصطناعي أكثر أمانًا للفئات الأكثر ضعفًا بيننا يجعله أكثر أمانًا للجميع. لقد حان الوقت للتأكد من أنه عندما يتواصل شخص ما في أزمة مع الذكاء الاصطناعي للحصول على المساعدة، فإنه يحصل على الدعم والتوجيه الذي يحتاجه.

ديكلان جراب، دكتوراه في الطب، هو زميل الطب النفسي الشرعي في جامعة ستانفورد وزميل الذكاء الاصطناعي الافتتاحي في مختبر ستانفورد لابتكار الصحة العقلية. يركز عمله على التداخل بين الذكاء الاصطناعي والصحة العقلية. ماكس لامبارث، دكتوراه، هو زميل ما بعد الدكتوراه في مركز ستانفورد لسلامة الذكاء الاصطناعي ومركز الأمن والتعاون الدولي. وهو يعمل على تحسين قابلية تفسير وقوة أنظمة الذكاء الاصطناعي لجعلها أكثر أمانًا بطبيعتها.