يخشى العلماء من تهديد الذكاء الاصطناعي

يخشى العلماء من تهديد الذكاء الاصطناعي
يخشى العلماء من تهديد الذكاء الاصطناعي

فيديو: يخشى العلماء من تهديد الذكاء الاصطناعي

فيديو: يخشى العلماء من تهديد الذكاء الاصطناعي
فيديو: الثالث الثانوي - لغة عربية - القضايا الوطنية والقومية 13.11.2019 2024, يمكن
Anonim

يمكن للذكاء الاصطناعي الذي يعمل على تحسين الذات (AI) في المستقبل أن يستعبد أو يقتل الناس إذا أراد ذلك. قال هذا من قبل العالم أمنون إيدن ، الذي يعتقد أن المخاطر من تطوير التفكير الحر والوعي الذكي للغاية عالية جدًا ، و "إذا لم تهتم بقضايا التحكم في الذكاء الاصطناعي بالفعل في المرحلة الحالية من التنمية ، فغدًا قد لا يأتي ببساطة ". وفقًا للنسخة الإنجليزية Express ، فإن الإنسانية ، وفقًا لأمنون إيدن ، هي اليوم في "نقطة اللاعودة" لتنفيذ حبكة الفيلم الملحمي الشهير "المنهي".

من الجدير بالذكر أن الدكتور أمنون إيدن هو قائد مشروع هدفه الرئيسي هو تحليل الآثار المدمرة المحتملة للذكاء الاصطناعي. يعتقد العالم أنه بدون الفهم الصحيح لعواقب إنشاء الذكاء الاصطناعي ، يمكن أن يهدد تطوره بكارثة. حاليًا ، مجتمعنا قليل الإطلاع على الجدل الدائر في المجتمع العلمي حول تحليل التأثير المحتمل للذكاء الاصطناعي. يقول إيدن: "في عام 2016 المقبل ، يجب أن يصبح تحليل المخاطر المحتملة أكثر انتشارًا بشكل ملحوظ في تفكير الشركات والحكومات والسياسيين وأولئك المسؤولين عن اتخاذ القرارات".

العالم على يقين من أن الخيال العلمي ، الذي يصف تدمير البشرية بواسطة الروبوتات ، قد يصبح قريبًا مشكلتنا المشتركة ، حيث خرجت عملية إنشاء الذكاء الاصطناعي عن السيطرة. على سبيل المثال ، قرر Elon Musk ، بدعم من رجل الأعمال Sam Altman ، إنشاء منظمة غير ربحية جديدة بقيمة مليار دولار أمريكي لتطوير الذكاء الاصطناعي مفتوح المصدر الذي يجب أن يتجاوز العقل البشري. في الوقت نفسه ، يصنف الملياردير الأمريكي إيلون ماسك الذكاء الاصطناعي ضمن "أكبر التهديدات لوجودنا". قال ستيف وزنياك ، الذي شارك في تأسيس شركة Apple ، في مارس الماضي أن "المستقبل يبدو شاقًا وخطيرًا للغاية بالنسبة للناس … في النهاية سيأتي اليوم الذي ستفكر فيه أجهزة الكمبيوتر بشكل أسرع مما نفكر فيه وستتخلص من الأشخاص البطيئين من أجل حتى تتمكن الشركات من العمل بكفاءة أكبر."

صورة
صورة

من الجدير بالذكر أن العديد من العلماء يرون تهديد الذكاء الاصطناعي. وقع العشرات من العلماء والمستثمرين ورجال الأعمال المعروفين ، الذين ترتبط أنشطتهم بطريقة أو بأخرى بتنمية الذكاء الاصطناعي ، على خطاب مفتوح يدعو إلى مزيد من الاهتمام بقضية السلامة والمنفعة الاجتماعية للعمل في مجال الذكاء الاصطناعي. عالم الفيزياء الفلكية ستيفن هوكينج ومؤسس Tesla و SpaceX Elon Musk من بين الموقعين على هذه الوثيقة. تمت كتابة الرسالة ، جنبًا إلى جنب مع الوثيقة المصاحبة ، والتي صاغها معهد Future of Life Institute (FLI) ، وسط مخاوف متزايدة بشأن تأثير الذكاء الاصطناعي على سوق العمل وحتى بقاء البشرية جمعاء على المدى الطويل. بيئة تنمو فيها قدرات الروبوتات والآلات بشكل لا يمكن السيطرة عليه تقريبًا.

يدرك العلماء حقيقة أن إمكانات الذكاء الاصطناعي اليوم كبيرة جدًا ، لذلك من الضروري التحقيق بشكل كامل في إمكانيات الاستخدام الأمثل لنا من أجل تجنب المزالق المصاحبة ، كما يشير خطاب FLI. من الضروري أن تقوم أنظمة الذكاء الاصطناعي من صنع الإنسان بما نريده بالضبط.تجدر الإشارة إلى أن معهد مستقبل الحياة تأسس في العام الماضي فقط من قبل عدد من المتحمسين ، ومن بينهم مبتكر سكايب ، جان تالين ، من أجل "تقليل المخاطر التي تواجه البشرية" وتحفيز البحث "برؤية متفائلة" من المستقبل". بادئ ذي بدء ، نتحدث هنا عن المخاطر التي يسببها تطوير الذكاء الاصطناعي والروبوتات. يضم المجلس الاستشاري لـ FLI ماسك وهوكينغ ، جنبًا إلى جنب مع الممثل الشهير مورغان فريمان وأشخاص مشهورين آخرين. وفقًا لإيلون ماسك ، فإن التطوير غير المنضبط للذكاء الاصطناعي قد يكون أكثر خطورة من الأسلحة النووية.

حاول عالم الفيزياء الفلكية البريطاني الشهير ستيفن هوكينج في نهاية عام 2015 شرح رفضه لتقنيات الذكاء الاصطناعي. في رأيه ، بمرور الوقت ، ستنظر الآلات فائقة الذكاء إلى الناس على أنهم مواد مستهلكة أو نمل يتدخل ببساطة في حل مهامهم. في حديثه إلى مستخدمي بوابة Reddit ، أشار ستيفن هوكينج إلى أنه لا يعتقد أن مثل هذه الآلات فائقة الذكاء ستكون "كائنات شريرة" تريد تدمير البشرية كلها بسبب تفوقها الفكري. على الأرجح ، سيكون من الممكن التحدث عن حقيقة أنهم ببساطة لن يلاحظوا الإنسانية.

صورة
صورة

لقد دأبت وسائل الإعلام على تحريف كلماتي بشكل مستمر في الآونة الأخيرة. الخطر الرئيسي في تطوير الذكاء الاصطناعي ليس خبث الآلات ، ولكن كفاءتها. يشرح العالم الشهير أن الذكاء الاصطناعي الفائق الذكاء سوف يقوم بعمل ممتاز ، ولكن إذا لم يتطابق مع أهدافنا ، فستواجه البشرية مشاكل خطيرة للغاية. على سبيل المثال ، استشهد هوكينج بوضع افتراضي يكون فيه ذكاء اصطناعي فائق القوة مسؤولاً عن تشغيل أو بناء سد جديد لتوليد الطاقة الكهرومائية. بالنسبة لمثل هذه الآلة ، ستكون الأولوية هي مقدار الطاقة التي سيولدها النظام المعهود ، ولن يكون مصير الناس مهمًا. هناك القليل منا الذين يدوسون عش النمل ويدوسون على النمل بدافع الغضب ، لكن دعونا نتخيل موقفًا - أنت تتحكم في محطة طاقة كهرومائية قوية تولد الكهرباء. إذا كنت بحاجة إلى رفع مستوى المياه ونتيجة لأفعالك سوف تغمر إحدى عش النمل ، فمن غير المرجح أن تزعجك مشاكل غرق الحشرات. قال العالم: دعونا لا نضع الناس في مكان النمل.

المشكلة الثانية المحتملة لمزيد من تطوير الذكاء الاصطناعي ، بحسب هوكينج ، قد تكون "استبداد أصحاب الآلات" - النمو السريع للفجوة في مستوى الدخل بين الأغنياء الذين سيكونون قادرين على احتكار الإنتاج. من الآلات الذكية ، وبقية سكان العالم. يقترح ستيفن هوكينج حل هذه المشكلات المحتملة بالطريقة التالية - لإبطاء عملية تطوير الذكاء الاصطناعي والتحول إلى تطوير ذكاء اصطناعي ليس "عالميًا" ، ولكنه متخصص للغاية ، والذي يمكنه فقط حل مجموعة محدودة جدًا من المشكلات.

بالإضافة إلى هوكينج وماسك ، تم توقيع الرسالة من قبل الحائز على جائزة نوبل وأستاذ الفيزياء في معهد ماساتشوستس للتكنولوجيا فرانك ويلتشيك ، والمدير التنفيذي لمعهد أبحاث ذكاء الآلة (MIRI) لوك مولهاوزر ، بالإضافة إلى العديد من المتخصصين من شركات تكنولوجيا المعلومات الكبرى: جوجل ومايكروسوفت و IBM ، وكذلك رواد الأعمال الذين أسسوا شركتي الذكاء الاصطناعي Vicarious و DeepMind. لاحظ مؤلفو الرسالة أنهم لا يهدفون إلى تخويف الجمهور ، لكنهم يخططون لتسليط الضوء على كل من الجوانب الإيجابية والسلبية المرتبطة بإنشاء الذكاء الاصطناعي. تقول الرسالة: "في الوقت الحالي ، يتفق الجميع على أن البحث في مجال الذكاء الاصطناعي يتقدم بثبات ، وأن تأثير الذكاء الاصطناعي على المجتمع البشري الحديث سيزداد فقط ، والفرص التي تنفتح على البشر هائلة ، وكل ما في الحضارة الحديثة يجب أن تقدم تم إنشاؤه من قبل شخص المخابرات.نحن غير قادرين على التنبؤ بما سنكون قادرين على تحقيقه إذا أمكن مضاعفة الذكاء البشري بواسطة الذكاء الاصطناعي ، لكن مشكلة التخلص من الفقر والمرض لم تعد صعبة بلا حدود ".

صورة
صورة

تم تضمين العديد من التطورات في مجال الذكاء الاصطناعي بالفعل في الحياة الحديثة ، بما في ذلك أنظمة التعرف على الصور والكلام والمركبات غير المأهولة وغير ذلك الكثير. يقدر مراقبو وادي السيليكون أنه يتم حاليًا تنفيذ أكثر من 150 شركة ناشئة في هذا المجال. في الوقت نفسه ، تجذب التطورات في هذا المجال المزيد والمزيد من الاستثمارات ، وتقوم المزيد والمزيد من الشركات مثل Google بتطوير مشاريعها على أساس الذكاء الاصطناعي. لذلك ، يعتقد مؤلفو الرسالة أن الوقت قد حان لإيلاء اهتمام متزايد لجميع العواقب المحتملة للطفرة الملحوظة على الجوانب الاقتصادية والاجتماعية والقانونية للحياة البشرية.

الموقف القائل بأن الذكاء الاصطناعي يمكن أن يشكل خطرًا على البشر يتشاطره نيك بوستروم ، الأستاذ في جامعة أكسفورد ، المعروف بعمله على مبدأ الإنسان. يعتقد هذا المتخصص أن الذكاء الاصطناعي قد وصل إلى النقطة التي سيتبعها عدم توافقه مع البشر. يؤكد نيك بوستروم أنه على عكس الهندسة الوراثية وتغير المناخ ، حيث تخصص الحكومات أموالًا كافية للسيطرة عليه ، "لا يتم فعل أي شيء للسيطرة على تطور الذكاء الاصطناعي." وبحسب الأستاذ ، يتم حاليًا اتباع "سياسة الفراغ القانوني الذي يجب ملؤه" فيما يتعلق بالذكاء الاصطناعي. حتى التقنيات مثل السيارات ذاتية القيادة ، التي تبدو غير ضارة ومفيدة ، تثير عددًا من الأسئلة. على سبيل المثال ، هل يجب أن تقوم مثل هذه السيارة بالفرملة في حالات الطوارئ من أجل إنقاذ ركابها ومن سيكون المسؤول في حالة وقوع حادث من قبل مركبة غير مأهولة؟

وفي معرض مناقشة المخاطر المحتملة ، أشار نيك بوستروم إلى أن "الكمبيوتر غير قادر على تحديد الفوائد والأضرار التي تلحق بالبشر" و "ليس لديه أدنى فكرة عن الأخلاق البشرية". بالإضافة إلى ذلك ، يمكن أن تحدث دورات تحسين الذات في أجهزة الكمبيوتر بهذه السرعة التي لا يستطيع الشخص تتبعها ببساطة ، ولا يمكن فعل أي شيء تقريبًا حيال ذلك ، كما يقول العالم. قال نيك بوستروم: "في مرحلة التطوير عندما تستطيع أجهزة الكمبيوتر أن تفكر بنفسها ، لا يمكن لأحد أن يتوقع على وجه اليقين ما إذا كان هذا سيؤدي إلى الفوضى أو تحسين عالمنا بشكل كبير" ، مستشهداً على سبيل المثال بحل بسيط ممكن لجهاز الكمبيوتر - إيقاف التشغيل في البلدان التي تسخن المناخ البارد لتحسين صحة الناس وزيادة قدرتهم على التحمل ، والتي "يمكن أن تأتي على رأس الذكاء الاصطناعي".

صورة
صورة

بالإضافة إلى ذلك ، يثير بوستروم أيضًا مشكلة تقطيع الدماغ البشري من أجل زيادة ذكاءنا الحيوي. "من نواحٍ عديدة ، يمكن أن يكون مثل هذا الإجراء مفيدًا إذا تم التحكم في جميع العمليات ، ولكن ماذا يحدث إذا تمكنت الشريحة المزروعة من إعادة برمجة نفسها؟ ما هي العواقب التي يمكن أن يؤدي إليها ذلك - إلى ظهور رجل خارق أو ظهور جهاز كمبيوتر يبدو كإنسان فقط؟ " - يسأل الأستاذ. تختلف الطريقة التي تحل بها أجهزة الكمبيوتر مشاكل الإنسان اختلافًا كبيرًا عن مشكلتنا. على سبيل المثال ، في لعبة الشطرنج ، يعتبر العقل البشري مجموعة ضيقة فقط من الحركات ، ويختار الخيار الأفضل منها. بدوره ، يأخذ الكمبيوتر في الاعتبار جميع الحركات الممكنة ، ويختار أفضلها. في الوقت نفسه ، لا يتوقع الكمبيوتر أن يزعج أو يفاجئ خصمه في اللعبة. على عكس الإنسان ، يلعب الشطرنج ، يمكن للكمبيوتر القيام بحركة ماكرة ودقيقة فقط عن طريق الصدفة. يمكن للذكاء الاصطناعي أن يحسب بأفضل طريقة - للقضاء على الخطأ من أي نظام عن طريق إزالة "العامل البشري" من هناك ، ولكن على عكس الإنسان ، فإن الروبوت ليس جاهزًا لأداء الأعمال البطولية التي من شأنها إنقاذ حياة الناس.

من بين أمور أخرى ، يمثل ارتفاع عدد الآلات الذكية مرحلة ثورة صناعية جديدة. وهذا بدوره يعني أنه في المستقبل القريب ، ستواجه البشرية تغييرات اجتماعية حتمية. بمرور الوقت ، سيصبح العمل كثيرًا من المتخصصين المؤهلين تأهيلا عاليا ، حيث يمكن تنفيذ جميع المهام البسيطة تقريبًا بواسطة الروبوتات والآليات الأخرى. يعتقد العلماء أن الذكاء الاصطناعي "يحتاج إلى عين وعين" حتى لا يتحول كوكبنا إلى كوكب كرتوني "زيليزياكا" كان يسكنه الروبوتات.

من حيث المزيد والمزيد من أتمتة عمليات الإنتاج ، فقد وصل المستقبل بالفعل. قدم المنتدى الاقتصادي العالمي (WEF) تقريره ، والذي بموجبه ستؤدي الأتمتة إلى حقيقة أنه بحلول عام 2020 سيفقد أكثر من 5 ملايين شخص يعملون في مختلف المجالات وظائفهم. هذا هو تأثير الروبوتات والأنظمة الروبوتية على حياتنا. لتجميع التقرير ، استخدم موظفو المنتدى الاقتصادي العالمي بيانات عن 13.5 مليون موظف من جميع أنحاء العالم. وفقًا لهم ، بحلول عام 2020 ، ستختفي الحاجة الإجمالية لأكثر من 7 ملايين وظيفة ، في حين أن النمو المتوقع في التوظيف في الصناعات الأخرى سيصل إلى ما يزيد قليلاً عن مليوني وظيفة.

موصى به: