لماذا يقول الخبراء أنه يجب علينا التحكم في الذكاء الاصطناعي الآن

جدول المحتويات:

لماذا يقول الخبراء أنه يجب علينا التحكم في الذكاء الاصطناعي الآن
لماذا يقول الخبراء أنه يجب علينا التحكم في الذكاء الاصطناعي الآن
Anonim

الوجبات الجاهزة الرئيسية

  • يشير بحث جديد إلى أنه قد لا تكون هناك طريقة للتحكم في الذكاء الاصطناعي الفائق الذكاء.
  • تجادل ورقة بحثية في مجلة أن التحكم في الذكاء الاصطناعي يتطلب تقنية أكثر تقدمًا بكثير مما نمتلكه حاليًا.
  • يقول بعض الخبراء أن الذكاء الاصطناعي الذكي حقًا قد يكون هنا في وقت أقرب مما نعتقد.
Image
Image

يقول العلماء إنه إذا طور البشر ذكاء اصطناعيًا فائق الذكاء ، فقد لا تكون هناك طريقة للتحكم فيه.

لطالما تم الترويج للذكاء الاصطناعيعلى أنه علاج لجميع مشاكل البشرية أو نهاية العالم على غرار المنهي.حتى الآن ، على الرغم من ذلك ، لم يقترب الذكاء الاصطناعي حتى من مستوى الذكاء البشري. لكن الإبقاء على قيود على الذكاء الاصطناعي المتقدم قد يكون مشكلة معقدة للغاية بالنسبة للبشر إذا تم تطويره على الإطلاق ، وفقًا لورقة بحثية حديثة نُشرت في مجلة أبحاث الذكاء الاصطناعي.

قال مانويل سيبريان ، أحد مؤلفي الورقة البحثية ، في بيان صحفي: "إن الآلة فائقة الذكاء التي تتحكم في العالم تبدو مثل الخيال العلمي".

"لكن هناك بالفعل آلات تؤدي مهامًا مهمة معينة بشكل مستقل دون أن يفهم المبرمجون تمامًا كيف تعلموها. لذلك فإن السؤال المطروح هو ما إذا كان هذا يمكن أن يصبح في مرحلة ما غير قابل للسيطرة وخطيرًا على البشرية."

قريبا على كمبيوتر سوبر بالقرب منك

تجادل ورقة المجلة بأن التحكم في الذكاء الاصطناعي يتطلب تقنية أكثر تقدمًا بكثير مما نمتلكه حاليًا.

في دراستهم ، صمم الفريق خوارزمية احتواء نظرية تضمن أن الذكاء الاصطناعي الخارق لا يمكن أن يؤذي الناس تحت أي ظرف من الظروف ، من خلال محاكاة سلوك الذكاء الاصطناعي أولاً ووقفه إذا اعتبر ضارًا.لكن المؤلفين وجدوا أن مثل هذه الخوارزمية لا يمكن بناؤها.

"إذا قمت بتقسيم المشكلة إلى قواعد أساسية من علوم الكمبيوتر النظرية ، فقد اتضح أن الخوارزمية التي تطلب من الذكاء الاصطناعي عدم تدمير العالم يمكن أن توقف عملياتها عن غير قصد." قال إياد رهوان ، مدير مركز البشر والآلات في معهد ماكس بلانك للتنمية البشرية في ألمانيا ، في البيان الصحفي

"إذا حدث هذا ، فلن تعرف ما إذا كانت خوارزمية الاحتواء لا تزال تحلل التهديد ، أو ما إذا كانت قد توقفت لاحتواء الذكاء الاصطناعي الضار. في الواقع ، هذا يجعل خوارزمية الاحتواء غير قابلة للاستخدام."

Image
Image

قد يكون الذكاء الاصطناعي الذكي حقاً هنا في وقت أقرب مما نعتقد ، كما يقول ميكاليس فازيرجيانيس ، أستاذ علوم الكمبيوتر في كلية البوليتكنيك في فرنسا. قال في رسالة بريد إلكتروني إلى Lifewire: "الذكاء الاصطناعي هو قطعة أثرية بشرية ، لكنه يتحول سريعًا إلى كيان مستقل".

"النقطة الحرجة ستكون إذا / عندما تحدث التفرد (أي عندما يكون لدى وكلاء الذكاء الاصطناعي وعي ككيان) وبالتالي سيطالبون بالاستقلال والتحكم في النفس والهيمنة في نهاية المطاف."

التفرد قادم

Vazirgiannis ليس وحده في توقع الوصول الوشيك للذكاء الاصطناعي الفائق. يحب المؤمنون الحقيقيون بتهديد الذكاء الاصطناعي الحديث عن "التفرد" ، وهو ما يفسره فازيرجيانيس بأنه النقطة التي مفادها أن الذكاء الاصطناعي سوف يحل محل الذكاء البشري و "من المحتمل أن تدرك خوارزميات الذكاء الاصطناعي وجودها وتبدأ في التصرف بأنانية وتعاون."

وفقًا لراي كورزويل ، مدير الهندسة في Google ، فإن التفرد سيصل قبل منتصف القرن الحادي والعشرين. قال كورزويل لـ Futurism: "2029 هو التاريخ الثابت الذي توقعته عندما يجتاز الذكاء الاصطناعي اختبار تورينج صالحًا وبالتالي يحقق مستويات الذكاء البشري".

إذا لم نتمكن من تنظيف منزلنا ، فما هو الرمز الذي من المفترض أن نطلب من منظمة العفو الدولية اتباعه؟

"لقد حددت تاريخ 2045 لـ" التفرد "، وهو الوقت الذي نضاعف فيه ذكائنا الفعال مليار ضعف من خلال الاندماج مع الذكاء الذي أنشأناه."

لكن ليس كل خبراء الذكاء الاصطناعي يعتقدون أن الآلات الذكية تشكل تهديدًا. قال مستشار الذكاء الاصطناعي إيمانويل ماجوري في مقابلة عبر البريد الإلكتروني إن الذكاء الاصطناعي قيد التطوير من المرجح أن يكون مفيدًا لتطوير الأدوية ولا يظهر أي ذكاء حقيقي. وأضاف: "هناك ضجة كبيرة حول الذكاء الاصطناعي ، مما يجعله يبدو وكأنه ثوري حقًا". "أنظمة الذكاء الاصطناعي الحالية ليست دقيقة بالدقة التي يتم الإعلان عنها ، وترتكب أخطاء لن يرتكبها الإنسان أبدًا."

تحكم في الذكاء الاصطناعي ، الآن

قد يكون تنظيم الذكاء الاصطناعي بحيث لا يفلت من سيطرتنا أمرًا صعبًا ، كما يقول فازيرجيانيس. تتحكم الشركات ، وليس الحكومات ، في الموارد التي تدعم الذكاء الاصطناعي. وقال "حتى الخوارزميات نفسها عادة ما يتم إنتاجها ونشرها في مختبرات الأبحاث لهذه الكيانات الكبيرة والقوية ، والمتعددة الجنسيات عادة".

"من الواضح ، بالتالي ، أن حكومات الولايات لديها سيطرة أقل وأقل على الموارد اللازمة للسيطرة على الذكاء الاصطناعي."

يقول بعض الخبراء أنه للتحكم في الذكاء الاصطناعي الفائق الذكاء ، سيحتاج البشر إلى إدارة موارد الحوسبة والطاقة الكهربائية. قال فازيرجيانيس: "أفلام الخيال العلمي مثل The Matrix تقدم نبوءات حول مستقبل بائس حيث يستخدم الذكاء الاصطناعي البشر كمصادر للطاقة الحيوية".

"على الرغم من الاستحالات البعيدة ، يجب أن تتأكد البشرية من وجود سيطرة كافية على موارد الحوسبة (أي مجموعات الكمبيوتر ، ووحدات معالجة الرسومات ، وأجهزة الكمبيوتر العملاقة ، والشبكات / الاتصالات) ، وبالطبع محطات الطاقة التي توفر الكهرباء التي هي بالتأكيد يضر بوظيفة الذكاء الاصطناعي."

Image
Image

المشكلة في التحكم في الذكاء الاصطناعي هي أن الباحثين لا يفهمون دائمًا كيف تتخذ هذه الأنظمة قراراتهم ، كما قال مايكل بيرتهولد ، المؤسس المشارك والرئيس التنفيذي لشركة برامج علوم البيانات KNIME ، في مقابلة عبر البريد الإلكتروني. "إذا لم نفعل ذلك ، كيف يمكننا التحكم فيه؟"

وأضاف: "نحن لا نفهم متى يتم اتخاذ قرار مختلف تمامًا بناءً على مدخلات غير ذات صلة بالنسبة لنا."

قال برتولد إن الطريقة الوحيدة للتحكم في مخاطر استخدام الذكاء الاصطناعي هي التأكد من أنه يُستخدم فقط عندما تكون هذه المخاطر قابلة للإدارة. وأضاف: "بعبارة أخرى ، مثالان متطرفان: لا تجعل الذكاء الاصطناعي مسؤولاً عن محطة الطاقة النووية الخاصة بك حيث يمكن أن يكون لخطأ بسيط آثار جانبية كارثية".

"من ناحية أخرى ، يتوقع الذكاء الاصطناعي ما إذا كان يجب تعديل درجة حرارة غرفتك لأعلى أو لأسفل قليلاً قد تستحق المخاطرة الضئيلة لصالح الراحة المعيشية."

قال بيتر سكوت ، مهندس الكمبيوتر السابق في ناسا ، في مقابلة عبر البريد الإلكتروني ،إذا لم نتمكن من التحكم في الذكاء الاصطناعي ، فمن الأفضل أن نعلمه الأخلاق. وقال: "لا يمكننا ، في نهاية المطاف ، ضمان إمكانية التحكم في الذكاء الاصطناعي أكثر مما يمكننا ضمانه لأطفالنا".

"نربيهم بشكل صحيح ونأمل في الأفضل ؛ حتى الآن ، لم يدمروا العالم. ولتربيتهم جيدًا ، نحتاج إلى فهم أفضل للأخلاق ؛ إذا لم نتمكن من تنظيف منزلنا ، فماذا؟ رمز هل من المفترض أن نطلب من الذكاء الاصطناعي اتباعه؟"

لكن كل الأمل لم يضيع للجنس البشري ، كما يقول الباحث في الذكاء الاصطناعي يوناتان ويكسلر ، نائب الرئيس التنفيذي للبحث والتطوير في OrCam. وقال في مقابلة عبر البريد الإلكتروني: "في حين أن التقدم مثير للإعجاب حقًا ، فإن إيماني الشخصي هو أنه لا ينبغي الاستهانة بالذكاء البشري". "نحن ككائنات خلقت أشياء مذهلة ، بما في ذلك الذكاء الاصطناعي نفسه."

يستمر البحث عن ذكاء اصطناعي أكثر ذكاءً. ولكن قد يكون من الأفضل التفكير في كيفية التحكم في إبداعاتنا قبل فوات الأوان.

موصى به: