ظهرت المقالة هل سينقذ الذكاء الاصطناعي البشرية—أم سينهيها؟ على موقع BitcoinEthereumNews.com. باختصار أظهرت ندوة عبر الإنترنت انقساماً عميقاً بين أنصار ما بعد الإنسانيةظهرت المقالة هل سينقذ الذكاء الاصطناعي البشرية—أم سينهيها؟ على موقع BitcoinEthereumNews.com. باختصار أظهرت ندوة عبر الإنترنت انقساماً عميقاً بين أنصار ما بعد الإنسانية

هل سينقذ الذكاء الاصطناعي البشرية—أم سينهيها؟

باختصار

  • أظهرت لجنة نقاش عبر الإنترنت انقسامًا عميقًا بين أنصار ما بعد الإنسانية والتقنيين حول الذكاء الاصطناعي العام.
  • حذر المؤلف إليعازر يودكوفسكي من أن أنظمة الذكاء الاصطناعي "الصندوق الأسود" الحالية تجعل الانقراض نتيجة لا مفر منها.
  • جادل ماكس مور بأن تأخير الذكاء الاصطناعي العام قد يكلف البشرية أفضل فرصة لها للتغلب على الشيخوخة ومنع الكارثة طويلة الأمد.

ظهر انقسام حاد حول مستقبل الذكاء الاصطناعي هذا الأسبوع عندما ناقش أربعة من التقنيين وأنصار ما بعد الإنسانية البارزين ما إذا كان بناء الذكاء الاصطناعي العام، أو AGI، سينقذ البشرية أم يدمرها.

جمعت اللجنة التي استضافتها منظمة Humanity+ غير الربحية أحد أبرز المتشائمين من الذكاء الاصطناعي "Doomers"، إليعازر يودكوفسكي، الذي دعا إلى إيقاف تطوير الذكاء الاصطناعي المتقدم، إلى جانب الفيلسوف والمستقبلي ماكس مور، وعالم الأعصاب الحسابي أندرس ساندبرغ، ورئيسة Humanity+ الفخرية ناتاشا فيتا-مور.

كشفت مناقشتهم عن خلافات جوهرية حول ما إذا كان يمكن مواءمة الذكاء الاصطناعي العام مع بقاء الإنسان أو ما إذا كان إنشاؤه سيجعل الانقراض أمرًا لا مفر منه.

مشكلة "الصندوق الأسود"

حذر يودكوفسكي من أن أنظمة الذكاء الاصطناعي الحديثة غير آمنة بشكل أساسي لأن عمليات صنع القرار الداخلية لها لا يمكن فهمها أو التحكم فيها بشكل كامل.

"أي شيء عبارة عن صندوق أسود من المحتمل أن ينتهي به الأمر بمشاكل مشابهة بشكل ملحوظ للتكنولوجيا الحالية"، حذر يودكوفسكي. وجادل بأن البشرية ستحتاج إلى الابتعاد "بعيدًا جدًا جدًا عن النماذج الحالية" قبل أن يتم تطوير الذكاء الاصطناعي المتقدم بأمان.

يشير الذكاء الاصطناعي العام إلى شكل من أشكال الذكاء الاصطناعي الذي يمكنه التفكير والتعلم عبر مجموعة واسعة من المهام، بدلاً من أن يتم بناؤه لوظيفة واحدة مثل توليد النصوص أو الصور أو مقاطع الفيديو. غالبًا ما يرتبط الذكاء الاصطناعي العام بفكرة التفرد التكنولوجي، لأن الوصول إلى هذا المستوى من الذكاء يمكن أن يمكّن الآلات من تحسين نفسها بشكل أسرع مما يمكن للبشر مواكبته.

أشار يودكوفسكي إلى تشبيه "مُعظِّم المشابك الورقية" الذي روّج له الفيلسوف نيك بوستروم لتوضيح المخاطر. تتضمن التجربة الفكرية ذكاءً اصطناعيًا افتراضيًا يحول كل المادة المتاحة إلى مشابك ورقية، مما يعزز تركيزه على هدف واحد على حساب البشرية. قال يودكوفسكي إن إضافة المزيد من الأهداف لن يحسن السلامة بشكل ملموس.

في إشارة إلى عنوان كتابه الأخير عن الذكاء الاصطناعي، "إذا بناه أي شخص، يموت الجميع"، قال: "عنواننا ليس مثل أنه قد يقتلك ربما"، قال يودكوفسكي. "عنواننا هو، إذا بناه أي شخص، يموت الجميع."

لكن مور تحدى الفرضية القائلة بأن الحذر الشديد يوفر النتيجة الأكثر أمانًا. وجادل بأن الذكاء الاصطناعي العام يمكن أن يوفر أفضل فرصة للبشرية للتغلب على الشيخوخة والمرض.

"الأهم بالنسبة لي، هو أن الذكاء الاصطناعي العام يمكن أن يساعدنا في منع انقراض كل شخص يعيش بسبب الشيخوخة"، صرح مور. "نحن جميعًا نموت. نحن نتجه نحو كارثة، واحدًا تلو الآخر." وحذر من أن القيود المفرطة يمكن أن تدفع الحكومات نحو الضوابط الاستبدادية كطريقة وحيدة لوقف تطوير الذكاء الاصطناعي في جميع أنحاء العالم.

وضع ساندبرغ نفسه بين المعسكرين، واصفًا نفسه بأنه "أكثر تفاؤلاً" مع البقاء أكثر حذرًا من المتفائلين بما بعد الإنسانية. وروى تجربة شخصية كاد فيها أن يستخدم نموذج لغة كبير للمساعدة في تصميم سلاح بيولوجي، وهي حادثة وصفها بأنها "مروعة".

"نحن نصل إلى نقطة حيث تضخيم الجهات الفاعلة الخبيثة سيتسبب أيضًا في فوضى هائلة"، قال ساندبرغ. ومع ذلك، جادل بأن السلامة الجزئية أو "السلامة التقريبية" يمكن تحقيقها. ورفض فكرة أن السلامة يجب أن تكون مثالية لتكون ذات مغزى، مشيرًا إلى أن البشر يمكنهم على الأقل التقارب على القيم المشتركة الدنيا مثل البقاء.

"لذا إذا طالبت بسلامة مثالية، فلن تحصل عليها. وهذا يبدو سيئًا للغاية من هذا المنظور"، قال. "من ناحية أخرى، أعتقد أنه يمكننا فعليًا الحصول على سلامة تقريبية. هذا جيد بما فيه الكفاية."

الشك في المواءمة

انتقدت فيتا-مور نقاش المواءمة الأوسع نفسه، بحجة أن المفهوم يفترض مستوى من الإجماع لا يوجد حتى بين المتعاونين منذ فترة طويلة.

"فكرة المواءمة هي مخطط بولييانا"، قالت. "لن تتم مواءمتها أبدًا. أعني، حتى هنا، نحن جميعًا أشخاص طيبون. نحن نعرف بعضنا البعض منذ عقود، ونحن لسنا متوافقين."

وصفت ادعاء يودكوفسكي بأن الذكاء الاصطناعي العام سيقتل الجميع حتمًا بأنه "تفكير مطلق" لا يترك مجالًا لنتائج أخرى.

"لدي مشكلة مع البيان الشامل بأن الجميع يموت"، قالت. "التعامل مع هذا كمستقبلية ومفكرة عملية، لا يترك أي عواقب، ولا بديل، ولا سيناريو آخر. إنه مجرد تأكيد صريح، وأتساءل عما إذا كان يعكس نوعًا من التفكير المطلق."

تضمنت المناقشة نقاشًا حول ما إذا كان التكامل الأوثق بين البشر والآلات يمكن أن يخفف من المخاطر التي يشكلها الذكاء الاصطناعي العام - وهو شيء اقترحه الرئيس التنفيذي لشركة Tesla إيلون ماسك في الماضي. رفض يودكوفسكي فكرة الاندماج مع الذكاء الاصطناعي، مقارنًا إياها بـ "محاولة الاندماج مع فرن التحميص الخاص بك".

جادل ساندبرغ وفيتا-مور بأنه مع نمو أنظمة الذكاء الاصطناعي بشكل أكثر قدرة، سيحتاج البشر إلى الاندماج أو الدمج بشكل أوثق معهم للتعامل بشكل أفضل مع عالم ما بعد الذكاء الاصطناعي العام.

"هذه المناقشة بأكملها هي فحص للواقع حول من نحن كبشر"، قالت فيتا-مور.

نشرة إحاطة يومية

ابدأ كل يوم بأهم الأخبار الآن، بالإضافة إلى ميزات أصلية وبودكاست ومقاطع فيديو والمزيد.

المصدر: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

إخلاء مسؤولية: المقالات المُعاد نشرها على هذا الموقع مستقاة من منصات عامة، وهي مُقدمة لأغراض إعلامية فقط. لا تُظهِر بالضرورة آراء MEXC. جميع الحقوق محفوظة لمؤلفيها الأصليين. إذا كنت تعتقد أن أي محتوى ينتهك حقوق جهات خارجية، يُرجى التواصل عبر البريد الإلكتروني [email protected] لإزالته. لا تقدم MEXC أي ضمانات بشأن دقة المحتوى أو اكتماله أو حداثته، وليست مسؤولة عن أي إجراءات تُتخذ بناءً على المعلومات المُقدمة. لا يُمثل المحتوى نصيحة مالية أو قانونية أو مهنية أخرى، ولا يُعتبر توصية أو تأييدًا من MEXC.