حقائق رئيسية
- توباس أوزبورن هو أستاذ الفيزياء النظرية في جامعة ليبنيز هانوفر وشريك مؤسس لشركة الاتصالات العلمية إنوفيليا.
- قانون الذكاء الاصطناعي للاتحاد الأوروبي هو إطار تنظيمي شامل سيبدأ في تطبيق قواعد أشد تدريجياً حتى عام 2026.
- يصرح أوزبورن بأن النقاشات حول الآلات فائقة الذكاء والـ "تفرد" الافتراضي أصبحت تشتيتاً خطيراً عن الأضرار الحالية.
- يحدد استغلال عمال تسمية البيانات منخفضي الأجر ونسخ الأعمال المحمية بحقوق التأليف والنشر على نطاق واسع كمخاطر رئيسية يتم تجاهلها.
- يصف أوزبورن الادعاءات بانفجار الذكاء المتسارع بأنها "أسطورة نهاية العالم الدينية متنكرة بلغة علمية".
الديستوبيا موجودة بالفعل
بينما تناقش صناعة التكنولوجيا والسياسيون ما إذا كان الذكاء الاصطناعي يمكن أن يهدد بقاء البشرية يوماً ما، يصرح أستاذ فيزياء بأن هذا التركيز على الكوارث المستقبلية يسمح للشركات بتجنب المساءلة عن الأضرار الحقيقية جداً التي تسببها تكنولوجياها بالفعل.
في مقال حديث، توباس أوزبورن، أستاذ الفيزياء النظرية في جامعة ليبنيز هانوفر وشريك مؤسس لشركة الاتصالات العلمية إنوفيليا، يجادل بأن النقاشات حول الآلات فائقة الذكاء والـ "تفرد" الافتراضي قد أصبحت تشتيتاً خطيراً.
لا تأتي نهاية العالم. بدلاً من ذلك، الديستوبيا موجودة بالفعل.
يؤكد أوزبورن أنه بينما يجادل التقنيون حول المخاطر الوجودية، فإن الصناعة تسبب "أضراراً حقيقية الآن. اليوم. يمكن قياسها."
كيف تضعف سرديات يوم القيامة الإشراف
أصبح نقاش الذكاء الاصطناعي يتشكل بشكل متزايد من سيناريوهات يوم القيامة، بما في ذلك التحذيرات من أن الأنظمة فائقة الذكاء قد تمحو البشرية عن قصد أو عن طريق الخطأ. هذه المخاوف يتم تعزيزها من قبل باحثي الذكاء الاصطناعي البارزين وقادة التكنولوجيا وتقارير الحكومة.
يصرح أوزبورن بأن هذا التركيز له تأثير ملموس على التنظيم والمساءلة. من خلال تصوير أنفسهم كحراس ضد الكارثة الحضارية، يتم التعامل مع شركات الذكاء الاصطناعي كممثلين للأمن القومي بدلاً من بائعي المنتجات.
من خلال تصوير أنفسهم كحراس ضد الكارثة الحضارية، يتم التعامل مع شركات الذكاء الاصطناعي كممثلين للأمن القومي بدلاً من بائعي المنتجات، مما يضعف المسؤولية ويحث التنظيم العادي.
يسمح هذا التحول للشركات بتحويل الأضرار إلى الخارج بينما تستفيد من تأجيل التنظيم والسرية والإعانات العامة. تستمر سرديات نهاية العالم، يقول أوزبورن، لأنها سهلة التسويق، صعبة التفنيذ، وتساعد على تحويل مخاطر الشركات إلى الجمهور.
"لا تأتي نهاية العالم. بدلاً من ذلك، الديستوبيا موجودة بالفعل."
— توباس أوزبورن، أستاذ الفيزياء النظرية، جامعة ليبنيز هانوفر
أضرار اليوم التي يتم تجاهلها
يقدم مقال أوزبورن قائمة طويلة بالأضرار الحالية التي يعتقد أنها يتم تجاهلها من قبل النقاشات المستقبلية. وتشمل هذه:
- استغلال عمال منخفضي الأجر الذين يضعون تسميات لبيانات تدريب الذكاء الاصطناعي
- نسخ أعمال الفنانين والكتاب على نطاق واسع دون موافقة
- التكاليف البيئية لمراكز البيانات المستهلكة للطاقة
- الأضرار النفسية المرتبطة باستخدام الروبوتات المحادثة
- فيض من المحتوى المولّد بالذكاء الاصطناعي يجعل العثور على معلومات موثوقة أصعب
كما يستهدف الفكرة الشائعة بأن الذكاء الاصطناعي يسابق نحو انفجار ذكاء متسارع. في المقال، وصف أوزبورن مثل هذه الادعاءات بأنها "أسطورة نهاية العالم الدينية متنكرة بلغة علمية"، قائلاً أن مثل هذه السيناريوهات تنهار عند مواجهة الحدود الفيزيائية.
هذه ليست مشاكل هندسية تنتظر حلولاً ذكية. إنها عواقب الفيزياء.
التباين التنظيمي
المنظر التنظيمي يتحرك في اتجاهات معاكسة. بينما بدأ الاتحاد الأوروبي في طرح قانون الذكاء الاصطناعي — إطار تنظيمي شامل سيبدأ في تطبيق قواعد أشد تدريجياً حتى عام 2026 — تتبنى الولايات المتحدة نهجاً مختلفاً.
تركز الجهود الفيدرالية في الولايات المتحدة على تقييد تنظيم الذكاء الاصطناعي على مستوى الولاية والحفاظ على المعايير الوطنية "أقل عبئاً". يسلط هذا التباين الضوء على التحدي العالمي في معالجة كل من الابتكار والمساءلة.
تشير نقده أوزبورن إلى أنه دون تغيير في التركيز، قد تستمر الأطر التنظيمية في إعطاء الأولوية للمخاطر الافتراضية على حساب الأضرار الحالية القابلة للقياس.
نداء للمساءلة
أوزبورن ليس ضد الذكاء الاصطناعي نفسه. في مقاله، يسلط الضوء على الفوائد الحقيقية التي يمكن أن تقدمها نماذج اللغة الكبيرة، خاصة للأشخاص ذوي الإعاقة الذين يعانون من التواصل المكتوب.
مع ذلك، يحذر من أنه دون مسؤولية، قد تظل هذه الفوائد مظللة بالاضرار النظامية. بدلاً من التركيز على التهديدات المستقبلية الافتراضية، يقول أوزبورن أن على صناع السياسات تطبيق قوانين المسؤولية عن المنتجات وواجب العناية الحالية على أنظمة الذكاء الاصطناعي.
المشاكل الحقيقية هي المشاكل العادية جداً، البشرية جداً للسلطة والمساءلة ومن يقرر كيف يتم بناء ونشر هذه الأنظمة.
بإجبار الشركات على تحمل مسؤولية الآثار الواقعية لأدواتها، يمكن للمجتمع ضمان عدم فقدان فوائد الذكاء الاصطناعي للسلطة الشركاتية غير الخاضعة للرقابة.
"من خلال تصوير أنفسهم كحراس ضد الكارثة الحضارية، يتم التعامل مع شركات الذكاء الاصطناعي كممثلين للأمن القومي بدلاً من بائعي المنتجات، مما يضعف المسؤولية ويحث التنظيم العادي."
— توباس أوزبورن، أستاذ الفيزياء النظرية، جامعة ليبنيز هانوفر
"هذه ليست مشاكل هندسية تنتظر حلولاً ذكية. إنها عواقب الفيزياء."
— توباس أوزبورن، أستاذ الفيزياء النظرية، جامعة ليبنيز هانوفر
"المشاكل الحقيقية هي المشاكل العادية جداً، البشرية جداً للسلطة والمساءلة ومن يقرر كيف يتم بناء ونشر هذه الأنظمة."
— توباس أوزبورن، أستاذ الفيزياء النظرية، جامعة ليبنيز هانوفر
أسئلة متكررة
ما هو الحجة الرئيسية التي يقدمها توباس أوزبورن؟
يصرح توباس أوزبورن بأن التركيز على سيناريوهات نهاية العالم المستقبلية للذكاء الاصطناعي يشتبك التنظيميين ويسمح للشركات بتجنب المساءلة عن الأضرار الحقيقية التي تحدث اليوم. يجادل بأن النقاشات حول الآلات فائقة الذكاء قد أصبحت تشتيتاً خطيراً عن القضايا الحالية القابلة للقياس.
ما هي الأضرار المحددة التي يسلط أوزبورن الضوء عليها؟
يعدد أوزبورن عدة أضرار حالية بما في ذلك استغلال عمال تسمية البيانات منخفضي الأجر، نسخ الأعمال المحمية بحقوق التأليف والنشر على نطاق واسع دون موافقة، التكاليف البيئية لمراكز البيانات، الأضرار النفسية الناتجة عن استخدام الروبوتات المحادثة، وفيض من المحتوى المولّد بالذكاء الاصطناعي الذي يجعل العثور على معلومات موثوقة أصعب.
ما هو الحل الذي يقترحه أوزبورن؟
بدلاً من التركيز على التهديدات المستقبلية الافتراضية، يقول أوزبورن أن على صناع السياسات تطبيق قوانين المسؤولية عن المنتجات وواجب العناية الحالية على أنظمة الذكاء الاصطناعي. سيجبر هذا الشركات على تحمل مسؤولية الآثار الواقعية لأدواتها.
كيف ينظر أوزبورن إلى المشهد التنظيمي الحالي؟
يلاحظ أوزبورن تبايناً بين الاتحاد الأوروبي، الذي ينفذ قانون الذكاء الاصطناعي بقواعد أشد حتى عام 2026، والولايات المتحدة، حيث تركز الجهود الفيدرالية على تقييد التنظيم على مستوى الولاية والحفاظ على المعايير الوطنية "أقل عبئاً".









