تم العثور على سوشير بالاجي، الباحث السابق في الذكاء الاصطناعي (AI) في OpenAI، ميتًا في شقته في سان فرانسيسكو. وبحسب ما ورد توفي الشاب البالغ من العمر 26 عامًا منتحرًا.
وقال الضابط روبرت رويكا، المتحدث باسم إدارة شرطة سان فرانسيسكو: “لم يتم العثور على أي دليل على وجود جريمة خلال التحقيق الأولي”. فوربس.
وفق أخبار الزئبقتم العثور على بلاجي ميتًا داخل شقته في شارع بوكانان في 26 نوفمبر.
لقد عمل في OpenAI من نوفمبر 2020 إلى أغسطس 2024، وفقًا لما ذكره الملف الشخصي على لينكدإن.
رد الملياردير Elon Musk، الذي لديه نزاع طويل الأمد مع الرئيس التنفيذي لشركة OpenAI Sam Altman، على الأخبار بمنشور غامض “hmm” على X (Twitter سابقًا).
– إيلون ماسك (@elonmusk) 14 ديسمبر 2024
شارك إيلون ماسك وسام ألتمان في تأسيس OpenAI في عام 2015. وبعد ثلاث سنوات، ترك ماسك OpenAI وأسس شركة ناشئة منافسة أخرى، وهي xAI.
وفي الشهر الماضي، زعم ماسك ذلك OpenAI محتكر.
قال سوشير بالاجي إن OpenAI انتهكت قانون حقوق النشر
في أكتوبر/تشرين الأول، زعم سوشير بالاجي أن شركة OpenAI تنتهك قانون حقوق الطبع والنشر.
وقال في مقابلة مع “إذا كنت تصدق ما أؤمن به، فعليك أن تترك الشركة”. نيويورك تايمز.
وقال أيضًا إن تقنيات مثل ChatGPT تلحق الضرر بالإنترنت.
وفي منشور على وسائل التواصل الاجتماعي على X في أكتوبر، كتب بالاجي أيضًا عن الاستخدام العادل والذكاء الاصطناعي التوليدي.
وفي معرض حديثه عن تجربته في العمل في OpenAI لمدة أربع سنوات، بما في ذلك عمله في ChatGPT لمدة عام ونصف، خلص بالاجي إلى أن “الاستخدام العادل يبدو وكأنه دفاع غير معقول إلى حد كبير عن الكثير من منتجات الذكاء الاصطناعي التوليدية”.
“لم أكن أعرف في البداية الكثير عن حقوق الطبع والنشر والاستخدام العادل وما إلى ذلك، ولكنني شعرت بالفضول بعد رؤية جميع الدعاوى القضائية المرفوعة ضد شركات GenAI. عندما حاولت فهم المشكلة بشكل أفضل، توصلت في النهاية إلى نتيجة مفادها أن الاستخدام العادل يبدو بمثابة دفاع غير قابل للتصديق للعديد من منتجات الذكاء الاصطناعي التوليدية، وذلك للسبب الأساسي وهو أنه يمكنهم إنشاء بدائل تتنافس مع البيانات التي تم تدريبها على (كذا) “، كتب.
لقد شاركت مؤخرًا في قصة نشرتها صحيفة نيويورك تايمز حول الاستخدام العادل والذكاء الاصطناعي التوليدي، ولماذا أشك في أن يكون “الاستخدام العادل” دفاعًا معقولاً عن الكثير من منتجات الذكاء الاصطناعي التوليدي. لقد كتبت أيضًا مشاركة مدونة (https://t.co/xhiVyCk2Vk) حول التفاصيل الجوهرية للاستخدام العادل ولماذا…
– سوشير بالاجي (@ suchirbalaji) 23 أكتوبر 2024
في أ مشاركة مدونةأوضح بلاجي العوامل الأربعة التي تحدد ما إذا كان الذكاء الاصطناعي التوليدي مؤهلاً للاستخدام العادل أم لا. ومن بين العوامل الأربعة “تأثير الاستخدام على السوق المحتملة للعمل المحمي بحقوق الطبع والنشر أو قيمته”.
وينظر اختبار الاستخدام العادل أيضًا في غرض وطبيعة الاستخدام وطبيعة العمل المحمي بحقوق الطبع والنشر – سواء كان عملًا إبداعيًا محميًا بدرجة عالية بموجب حقوق الطبع والنشر أو عملاً واقعيًا.
واختتم بالاجي قائلاً: “لا يبدو أن أيًا من العوامل الأربعة يؤثر لصالح استخدام ChatGPT بشكل عادل لبيانات التدريب الخاصة به. ومع ذلك، لا توجد أي من الحجج هنا خاصة بشكل أساسي بـ ChatGPT أيضًا، ويمكن تقديم حجج مماثلة للعديد من منتجات الذكاء الاصطناعي التوليدية في مجموعة واسعة من المجالات.