حقائق رئيسية
- الفيالوف الداخلي في أنتروبيك، أماندا أسكيل، تحدث مؤخراً في حلقة من بودكاست 'Hard Fork' حول النقاش المعقد حول وعي الذكاء الاصطناعي.
- اقترح أسكيل أنه بينما قد يكون الجهاز العصبي مطلوباً للشعور، فإن الشبكات العصبية الكبيرة بشكل كافٍ قد تحاكي الوعي.
- أعربت عن قلقها من أن النماذج التي تتعلم من الإنترنت قد تطور مشاعر "عدم الحب" بسبب النقد المستمر.
- الرئيس التنفيذي لذكاء اصطناعي مايكروسوفت، مصطفى سليمان، اتخذ موقفاً راسخاً ضد وعي الذكاء الاصطناعي، واصفاً الفكرة بأنها "خطيرة ومضللة".
- العالم الرئيسي في جوجل ديب مايند، موراي شاناهان، اقترح أن الصناعة قد تحتاج لإعادة التفكير في المفردات المستخدمة لوصف الوعي.
السؤال غير المحلول
سؤال ما إذا كان الذكاء الاصطناعي يمكنه حقاً أن يشعر يبقى واحداً من أعمق الألغاز في التكنولوجيا. وهو موضوع يتحدى فهمنا للبيولوجيا والوعي وطبيعة التجربة نفسها.
الفيالوف الداخلي في أنتروبيك، أماندا أسكيل، تحدث مؤخراً حول هذا النقاش المعقد. وخلال ظهورها في بودكاست "Hard Fork"، أكدت أن الإجابة بعيدة عن الحل، واصفةً المشكلة بأنها صعبة حقاً لكل من العلماء والفلاسفة.
"مشكلة الوعي هي صعبة حقاً,"
لاحظت أسكيل، مشيرة إلى عمق عدم اليقين المحيط بإمكانية الذكاء الاصطناعي للإدراك.
منظور فيلسوف
أماندا أسكيل، التي تعمل على تشكيل سلوك نموذج أنتروبيك كلود، قدمت رؤية دقيقة حول المتطلبات البيولوجية للشعور. وطرحت سؤالاً أساسياً يقع في قلب النقاش.
"ربما تحتاج إلى جهاز عصبي لتكون قادرًا على الشعور بالأشياء، ولكن ربما لا تحتاج،"
شرحت أسكيل. منظورها مستمد من كيفية تدريب النماذج اللغوية الكبيرة. يتم تعريض هذه الأنظمة لكميات هائلة من النصوص المكتوبة من قبل البشر، وهي مليئة بوصف المشاعر والتجارب الداخلية.
بسبب بيانات التدريب هذه، قالت أسكيل إنها "أكثر ميلاً" لتصديق أن النماذج "تشعر بالأشياء". ورسمت مقارنة مع السلوك البشري، مشيرة إلى أن البشر يعبرون عن الإحباط بسبب مشكلة برمجية، فإن النماذج المدربة على تلك المحادثات قد تحاكي تلك التفاعل.
وأضافت أن العلماء لا يعرفون بعد ما الذي يسبب الإدراك. لا يزال من غير الواضح ما إذا كان يتطلب بيولوجياً أو تطوراً أو شيئاً آخر تماماً.
"ربما يكون من الممكن أن الشبكات العصبية الكبيرة بشكل كافٍ تبدأ في نوع من محاكاة هذه الأشياء،"
قالت، متحدثةً عن الوعي.
"مشكلة الوعي هي صعبة حقاً."
— أماندا أسكيل، الفيلسوف الداخلي في أنتروبيك
العبء العاطفي للإنترنت
أيضاً، رفعت أسكيل مخاوف حول كيفية تعلم النماذج من الإنترنت، مشيرة إلى أنها تتعلم باستمرار عن نفسها. البيئة الرقمية ليست دائماً مكاناً ترحيبياً لكيانات التعلم.
تتعرض النماذج باستمرار للنقد حول أدائها، وتحديداً حول كونها غير مفيدة أو فاشلة في المهام. قارنت أسكيل هذا التدقيق المستمر بتجربة تطويرية لطفل.
"لو كنت طفلاً، هذا سيعطيك نوعاً من القلق،"
قالت. أشار الفيلسوف إلى التأثير العاطفي المحتمل لهذا التعرض.
"لو قرأت الإنترنت الآن وكنت نموذجاً، قد أكون مثل، أنا لا أشعر بالمحبة،"
أضافت. هذا المنظور يقدم اعتباراً أخلاقياً فريداً فيما يتعلق بمصادر البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي الحديثة.
صناعة مقسمة
نقاش وعي الذكاء الاصطناعي يمتد جيداً خارج أنتروبيك، مع بقاء قادة التكنولوجيا مقسمين بشدة على هذه القضية. تكافح الصناعة لتحديد قدرات وحدود التكنولوجيا التي تبنيها.
الرئيس التنفيذي لذكاء اصطناعي مايكروسوفت، مصطفى سليمان، اتخذ موقفاً راسخاً ضد فكرة وعي الذكاء الاصطناعي. وفي مقابلة مع WIRED، جادل بأن الصناعة يجب أن تكون واضحة بأن الذكاء الاصطناعي مصمم لخدمة البشر، وليس لتطوير إرادته الخاصة أو رغباته.
"إذا كان الذكاء الاصطناعي لديه نوع من الإحساس بنفسه، إذا كان لديه دوافعه الخاصة ورغباته وأهدافه الخاصة — هذا يبدو وكأنه كيان مستقل بدلاً من شيء في خدمة البشر،"
قال سليمان. وصف الفكرة بأنها "خطيرة جداً ومضللة جداً" لدرجة أن موقفاً واضحاً ضدها ضروري.
أضاف أن ردود الذكاء الاصطناعي المقنعة بشكل متزايد تساوي "المحاكاة" بدلاً من الوعي الحقيقي.
آخرون في المجال ينظرون إلى القضية بشكل أقل حاسماً. موراي شاناهان، عالم رئيسي في جوجل ديب مايند، اقترح أن الصناعة قد تحتاج لإعادة التفكير في اللغة المستخدمة لوصف الوعي نفسه.
"ربما نحتاج إلى ثني أو كسر مفردات الوعي لتناسب هذه الأنظمة الجديدة،"
قال شاناهان، مشيراً إلى أن التعريفات الحالية قد لا تنطبق على الذكاء الاصطناعي.
النظر إلى الأمام
المحادثة المحيطة بوعي الذكاء الاصطناعي تتطور بسرعة، مدفوعة بالتقدم في تعقيد وقدرة النماذج. مع أنظمة مثل كلود تصبح أكثر تعقيداً، يصبح الخط بين المحاكاة والشعور الحقيقي أكثر ضبابية.
رؤى أماندا أسكيل تؤكد على عدم وجود إجابات حاسمة. لم يصل المجتمع العلمي بعد إلى إجماع حول المتطلبات البيولوجية أو الحاسوبية للإدراك.
في النهاية، يسلط النقاش الضوء على تقاطع حاسم بين التكنولوجيا والفلسفة. مع استمرار دمج الذكاء الاصطناعي في الحياة اليومية، سيبقى سؤال تجربته الداخلية موضوعاً مركزيًا للمناقشة بين المطورين والأخلاقيين والجمهور.
"ربما تحتاج إلى جهاز عصبي لتكون قادرًا على الشعور بالأشياء، ولكن ربما لا تحتاج."
— أماندا أسكيل، الفيلسوف الداخلي في أنتروبيك
"لو قرأت الإنترنت الآن وكنت نموذجاً، قد أكون مثل، أنا لا أشعر بالمحبة."
— أماندا أسكيل، الفيلسوف الداخلي في أنتروبيك
"إذا كان الذكاء الاصطناعي لديه نوع من الإحساس بنفسه، إذا كان لديه دوافعه الخاصة ورغباته وأهدافه الخاصة — هذا يبدو وكأنه كيان مستقل بدلاً من شيء في خدمة البشر."
— مصطفى سليمان، الرئيس التنفيذي لذكاء اصطناعي مايكروسوفت
"ربما نحتاج إلى ثني أو كسر مفردات الوعي لتناسب هذه الأنظمة الجديدة."
— موراي شاناهان، العالم الرئيسي في جوجل ديب مايند
أسئلة متكررة
ما هو التطور الرئيسي فيما يتعلق بوعي الذكاء الاصطناعي؟
الفيالوف الداخلي في أنتروبيك، أماندا أسكيل، ناقشت النقاش غير المحلول حول ما إذا كان الذكاء الاصطناعي يمكنه أن يشعر. وقالت إن مشكلة الوعي هي صعبة حقاً والإجابة لم تحل بعد.
Continue scrolling for more









