تمنح Microsoft فريق أخلاقيات الذكاء الاصطناعي الفرصة
قامت Microsoft بتسريح القسم المخصص لتوجيه أخلاقيات منتجات الذكاء الاصطناعي.
منهاج التقارير أن فريق الأخلاقيات والمجتمع بأكمله داخل Microsoft قد تم التخلي عنه كجزء من التخفيضات الأوسع لنحو 10000 موظف.
هذا يعني أن Microsoft ليس لديها فريق مخصص لأخلاقيات الذكاء الاصطناعي على وجه التحديد في وقت حققت فيه نجاحًا كبيرًا من خلال إصدارها الجديد محرك بحث Bing يعمل بنظام OpenAI.
قامت Microsoft Bing مؤخرًا بإصدار الأخبار لـ تجاوز 100 مليون مستخدم، إلى حد كبير على خلفية اختراق روبوت الدردشة Ai الخاص به.
وقد أدى ذلك إلى مخاوف بين موظفي فريق الأخلاقيات والمجتمع الذي تم اختياره الآن ، والذين يزعمون أن الإشراف المناسب أمر ضروري في هذا الوقت.
قال موظف سابق: "أسوأ شيء هو أننا عرّضنا الشركة للمخاطر والبشر للمخاطرة في القيام بذلك".
من جانبها ، قالت Microsoft إنها تستثمر أكثر من أي وقت مضى في مكتب الذكاء الاصطناعي المسؤول ، والذي لا يزال موجودًا داخل الشركة. تدعي أن هذا القسم ، جنبًا إلى جنب مع "نحن جميعًا في Microsoft... مسؤولون عن ضمان وضع مبادئ الذكاء الاصطناعي لدينا موضع التنفيذ".
وقالت مايكروسوفت في بيان: "نحن نقدر العمل الرائد الذي قام به فريق الأخلاقيات والمجتمع لمساعدتنا في رحلتنا المستمرة والمسؤولة في مجال الذكاء الاصطناعي".
في الاجتماعات الأخيرة مع فريق الأخلاقيات والمجتمع ، كشف جون مونتغمري من Microsoft عن كبار المسؤولين داخل الشركة كانت تمارس ضغوطًا كبيرة على فرق الذكاء الاصطناعي لديها للتحرك بسرعة أكبر في تطبيق OpenAI عارضات ازياء. من الواضح أن فريقًا مكرسًا لتطبيق الفرامل وتقييم الوضع كان يقف في طريق ذلك.
يقال إن معظم أعضاء فريق الأخلاقيات والمجتمع قد تم نقلهم داخل Microsoft.
قد ترغب…
يتوسع روبوت الدردشة Bing AI من Microsoft بشكل أسرع مما كان يعتقده أي شخص
روبوت دردشة Bing AI الجديد قادم إلى iOS و Android قريبًا
أفضل كمبيوتر محمول 2023: أفضل أجهزة الكمبيوتر المحمولة المتوفرة حاليًا
لماذا نثق في صحافتنا؟
تأسست Trusted Reviews في عام 2004 لتقدم لقرائنا نصائح شاملة وغير متحيزة ومستقلة حول ما يجب شراؤه.
اليوم ، لدينا ملايين المستخدمين شهريًا من جميع أنحاء العالم ، ونقيم أكثر من 1000 منتج سنويًا.