إلى أي مدى يجب أن نأخذ الذكاء الاصطناعي؟

عندما يبدأ الذكاء الاصطناعي في تجاوز عقولنا ، يحذرنا خبراء الروبوتات من مخاطر الأسلحة المستقلة. فكيف يجب أن يصنع الإنسان الآلات وسنعرف متى حان الوقت للتوقف؟

روبوتات Killer هي عنصر أساسي من الخيال العلمي ، لكن رسالة حديثة من مجموعة تضم أكثر من 100 من خبراء الروبوتات ، بمن فيهم مؤسس SpaceX Elon Musk ، حذرت الأمم المتحدة من التهديد الذي تشكله الأسلحة الذاتية الفتاكة ، وتطلب استخدام تتم إضافة الذكاء الاصطناعي (AI) كوسيلة لإدارة الأسلحة إلى قائمة الأسلحة المحظورة بموجب اتفاقية الأمم المتحدة الخاصة بأسلحة تقليدية معينة. إذن لماذا الآن ، عندما يتم استخدام الذكاء الاصطناعي من أجل الكثير من الخير ، فإنهم قلقون للغاية بشأن التهديد الذي يمثله؟ للإجابة على ذلك ، نحن بحاجة إلى فهم كيف وصلنا إلى ما نحن عليه اليوم وصعود آلات الضمير.

جمع المعلومات الاستخباراتية

في صيف عام 1956 ، اجتمع آباء الذكاء الاصطناعي (AI) في كلية دارتموث ، نيو هامبشاير ، لتعميم العلم الجديد وتحديد أهدافه. كان مفهومهم عن "الذكاء البشري" ضيقًا ومحددًا تمامًا. ستفعل أجهزة الكمبيوتر ما فعله رجل عاقل ومتعلم وناضج - لأنه رجل ، وليس امرأة ، كان يدور في ذهن الآباء. وقال انه يستخدم معرفته والمنطق لحل المشاكل المعقدة. لقد كان هدفًا تجاوز المعالجة العددية البحتة التي كانت تستخدمها أجهزة الكمبيوتر في ذلك الوقت.
تطلب علم الذكاء الاصطناعي الجديد جهاز كمبيوتر مختلفًا كان قادرًا على إنشاء المعرفة وتخزينها والوصول إليها ، وتطبيق قواعد منطقية على الحقائق والبيانات ، وطرح الأسئلة ، واستنتاج حقائق جديدة ، واتخاذ القرارات ، وتقديم تفسيرات لمنطقها وأفعالها. قبل سنوات ، تخيل عالم الرياضيات الإنجليزي آلان تورينج آلة ذكية كآلة من شأنها التحدث بلغتنا وإقناعنا بإنسانيتها. ومع ذلك ، فإن تطلعات ذكاء الآلة التأسيسية لا علاقة لها بالمشاعر الإنسانية أو الأخلاق أو الوعي. على الرغم من أن فهم اللغة قد تم إدراجه في أهداف الذكاء الاصطناعى المبكر ، إلا أن النية لم تكن لتكرار العقل البشري في الآلة ، ولكن فقط محاكاة جوانب عملية معينة منه. الى جانب ذلك،
ومع ذلك ، كان إغراء التفكير الكبير واضحًا منذ البداية. منذ عام 1943 ، أظهر عالم الأعصاب الرائد وارن مكولوتش والمنطق المنطقي والتر بيتس أوجه التشابه بين الإلكترونيات والخلايا العصبية. ماذا لو استطعنا إعادة إنتاج الدماغ البشري بأكمله ، بكل أسلاكه المعقدة ، في جهاز كمبيوتر إلكتروني؟ ماذا لو بدلًا من وصف كيفية التفكير في الكمبيوتر ، فدعنا نتفكر بمفرده ، وبالتالي نطور "عقلًا" من تلقاء نفسه؟ ماذا لو جعلنا الذكاء الاصطناعي أكثر إنسانية؟
ثم في عام 1956 ، وهو نفس العام الذي انعقد فيه مؤتمر كلية دارتموث ، ابتكر عالم النفس الأمريكي فرانك روزنبلات "perceptron" ، وهي خوارزمية ركضت على أجهزة معينة تحاكي الخلايا العصبية وكانت قادرة على التعلم على نحو مماثل لشبكة عصبية: عن طريق تعزيز أو إضعاف الروابط بين الخلايا العصبية المجاورة والمترابطة. كان المدرك هو سلف الشبكات العصبية الاصطناعية والتعلم العميق ، أو ما نفهمه اليوم - بعد 60 عامًا - على أنه الفكرة الكبيرة وراء "الذكاء الاصطناعي".

التفكير مثل الإنسان

أنتج النهج المنطقي الأولي لمنظمة العفو الدولية بعض النتائج المثيرة للاهتمام على مر السنين ، ولكن في النهاية وصلت إلى طريق مسدود. قدم اختراع Rosenblatt الرائد طريقة بديلة ، تلك التي مكّنت أجهزة الكمبيوتر من تجاوز المنطق ، والمغامرة في حل مشكلة صعبة حقًا: التصور. تم نسيان عمله تقريبًا لفترة من الوقت ، ولكن تم إحياءه بواسطة جيل جديد من العلماء الرائعين في التسعينيات. مع انخفاض تكلفة الأجهزة القادرة على المعالجة المتوازية ، أصبح من الممكن إنشاء خوارزميات تحاكي الدماغ البشري. لقد كانت طفرة تكنولوجية أعادت تعريف الذكاء الاصطناعي وأهدافه.
نحن نعيش الآن في وقت تحطم فيه الأجهزة الذكية الأرقام القياسية كل يوم تقريبًا. مع ضخ مليارات الدولارات من الاستثمار في أبحاث الذكاء الاصطناعى ، أصبحت الآلات أكثر ذكاءً. مفتاح ذكائهم المتسارع هو قدرتهم على التعلم. يمكن لشبكة عصبية صناعية - تمامًا مثل الشبكات "الطبيعية" الموجودة في أدمغتنا - أن تتعلم كيفية التعرف على الحقائق من خلال معالجة البيانات من خلال الترابط الداخلي. على سبيل المثال ، يمكنه معالجة بكسلات صورة والتعرف على وجه الإنسان أو الحيوان أو الكائن. وبمجرد أن يتعلم الذكاء الاصطناعي كيفية استخلاص الحقائق من البيانات ، يمكن أن يفعل ذلك مرارًا وتكرارًا ، أسرع بكثير من أدمغتنا. تحتاج هذه الآلات إلى الكثير من البيانات حتى تتعلم ، وغالبًا ما يكون المدرب البشري للإشراف على التعلم. لكن يمكن للآلات أيضًا أن تتعلم من تلقاء نفسها ، من خلال عملية تسمى "التعلم التعزيز".تغلب على بطل العالم من الذهاب . في لعبة تشتهر بالتعقيد ، أصبحت الآلة حائزة على شهادة فخرية في حزام الحزام الأسود 9 دان باللعب ضد أمثلة على نفسها.
كان AlphaGo نقطة تحول في تطور الذكاء الاصطناعي لأنه قدم لمحة عن الهدف النهائي: إنشاء ذكاء عام يشبه الإنسان. للفوز في لعبة معقدة مثل Go ، تحتاج إلى التفكير بشكل خلاق ، واستخدام "الحدس". هذا يعني القدرة على الاستفادة من الدروس السابقة وتطبيقها بفعالية على المشكلات الجديدة وغير المتوقعة. لكن أجهزة الكمبيوتر ليست هناك بعد. لا يزالون في مرحلة ذكاء التعرف: يمكنهم استنتاج الحقائق من البيانات من خلال التعرف على الصور والأصوات أو اللغة البشرية ، وجعل التنبؤات بناءً على فهمهم للبيانات.
الخطوة التالية نحو أن تصبح أكثر "إنسانية" تتطلب آلات لاستخدام فهمهم من أجل اتخاذ قرارات في الوقت الحقيقي والتصرف بشكل مستقل. على سبيل المثال ، لا يكفي أن تدرك سيارة بدون سائق أن مجموعة من البيكسلات هي سيارة بيضاء أمامها تتباطأ بسرعة. يجب أن السبب أيضا أنه يحتاج إلى اتخاذ إجراءات مراوغة. في القيام بذلك ، قد يتعين عليها أن تقرر بين الحياة والموت. بمعنى آخر ، المرحلة التالية في تطور الذكاء الاصطناعي هي أن تدخل الآلات إلى المناطق المشكَّلة في الأخلاق البشرية.

الضرورة الأخلاقية لمنظمة العفو الدولية

إن التبرير لجعل الذكاء الاصطناعي أكثر تشبه الإنسان هو أمر ساحق. نحن نقدر "الذكاء" باعتباره حجر الزاوية في تطورنا. هذه القيمة متأصلة بعمق في كل ثقافة إنسانية. ما جعل جنسنا يعيش ضد الحيوانات المفترسة المجهزة بشكل أفضل هو قدرتنا على التعلم والابتكار والتكيف. سوف منظمة العفو الدولية turbocharge الذكاء البشري والإبداع. الأسباب الاقتصادية لمتابعة الآلات الأكثر ذكاءً هي أيضًا أسباب عميقة.
على الرغم من أن الذكاء الاصطناعي سوف يعطل العديد من المهن ، مثل التصنيع والبيع بالتجزئة ، إلا أنه لا توجد تقنية أخرى لديها مثل هذه الإمكانيات لتأمين النمو الاقتصادي المستمر والازدهار للأجيال القادمة. بالنسبة للعلم ، لم يكن ظهور الآلات التي يمكنها معالجة كميات هائلة من البيانات واكتشاف معارف جديدة قد جاء في وقت أفضل.
يستفيد كل تخصص علمي من الذكاء الاصطناعي لإدارة طوفان البيانات. يستخدمه الفيزيائيون للبحث في قوانين الطبيعة الأساسية ، وعلماء الأحياء لاكتشاف أدوية جديدة لعلاج الأمراض ، والأطباء لتقديم تشخيص وعلاجات أفضل. متابعة تطوير الذكاء الآلي لأسباب ثقافية واقتصادية وعلمية أمر منطقي تمامًا. ولكن كلما أصبحت أجهزتنا أكثر إنسانية ، ومع بدء المزيد من التطبيقات في تضمين بعض الذكاء الاصطناعي ، بدأت مشكلة أساسية في الظهور.
إن محاكاة دماغ الإنسان بشبكات عصبية اصطناعية تعني أن أجهزة الكمبيوتر غامضة ومبهمة. هذا هو ما يسمى "مشكلة الصندوق الأسود" لمنظمة العفو الدولية. في الدماغ والجهاز ، تنتشر المعلومات في الشبكة. عندما نسترجع رقم هاتف من الذاكرة ، فإننا لا نصل إلى جزء من الدماغ حيث يتم حفر الرقم بطريقة ما. بدلاً من ذلك ، يتم توزيع كل رقم على طول نقاط تشابك متعددة تربط مختلف الخلايا العصبية ، على مستويات مختلفة من التنظيم. نحن لا نعرف حقيقة ما نعرفه أو كيف نعرفه. هذا فقط لأننا نملك وعيه أننا قادرون على ترشيده في وقت لاحق ، وبالتالي "شرح" الحدس والأفكار لدينا.
كما أظهر عالم الأعصاب الأمريكي ديفيد إيجلمان ، فإن معظم ما أصبحنا على دراية به قد حدث بالفعل في المخ على مستوى غير واع. بالنسبة للبشر ، لم تكن هذه مشكلة تاريخيا ، لأننا افترضنا في أنظمتنا الأخلاقية والقانونية أن كل واحد منا مسؤول شخصيا عن أفكارنا وأفعالنا - على الأقل عندما تكون كيمياء أدمغتنا ضمن نطاقات مقبولة اجتماعيا من " الحياة الطبيعية ". ومع ذلك ، بالنسبة لآلة ذكية غير واعية ، تشير "مشكلة الصندوق الأسود" إلى أنه على الرغم من أن التنبؤات والتوصيات التي قدمتها الآلة قد تكون دقيقة ومفيدة ، فإن الجهاز لن يكون قادرًا على شرح أسبابه. تخيل سيارة بدون سائق تتخذ قرار حياة أو موت ، وتحطم ، وقتل عدد من البشر. مع التكنولوجيا الحالية ، من المستحيل فك شفرة سبب اتخاذ الآلة القرار.
تتفاقم مشكلة الصندوق الأسود عندما تكون البيانات التي تستخدمها الآلة للتعلم لها تحيزات جوهرية ، مما قد يؤدي إلى استنتاجات متحيزة أو سلوك غير اجتماعي. في مارس 2016 ، على سبيل المثال ، أصدرت Microsoft روبوتًا على Twitter مع القدرة على تعلم اللغة البشرية من خلال تحليل التغريدات الحية. في أقل من 24 ساعة لقد حاول العلماء أساليب مختلفة لحل مشكلة الصندوق الأسود. في أكتوبر 2016 ، نشر علماء DeepMind ورقة في مجلة Nature تصف فيها "آلة الحوسبة العصبية المختلفة" التي تجمع بين الشبكة العصبية والذاكرة الخارجية التقليدية. يعتبر فصل المعالجة عن البيانات خطوة نحو أجهزة ذكية مسؤولة أخلاقياً. إنه يجعل من الممكن نظريًا ترميز القيم الأخلاقية التي تحقق أو تمنع نتائج الصندوق الأسود للشبكات العصبية. لكن هذا النهج المختلط لتطوير ذكاء اصطناعي أكثر أمانًا قد لا يكون كافيًا في المستقبل.

المعضلة الأخلاقية الحقيقية

بعد بداية وعرة وخيبة أمل كبيرة على مر السنين ، ضربت البشرية التكنولوجيا التي لديها القدرة على إعادة تشكيل كل شيء. يشير الدافع الاقتصادي والثقافي لاستغلال أبعد حدود للذكاء الآلي إلى أننا سنصل في النهاية إلى معلومات استخباراتية عامة شبيهة بالإنسان ، ربما خلال السنوات العشر إلى العشرين القادمة. قد تختلف التنبؤات ولكن إذا كانت التطورات الأخيرة هي دليل ، يجب أن نتوقع الذكاء الاصطناعي العام عاجلاً وليس آجلاً.
عندما يحدث هذا ، سنقوم بإنشاء آلات قادرة على استيعاب كميات هائلة من البيانات وتقديم رؤى وتوقعات خارقة للطبيعة. ومن المفارقات ، إذا بقيت مشكلة الصندوق الأسود دون حل ، فقد نجد أنفسنا في وضع مماثل لليونانيين القدماء الذين يزورون أوراكل دلفي ونطلب من أبولو التنبؤ بمستقبلهم. كانت لغة الإله غير مفهومة تمامًا للبشر ، لذا تم استدعاء وسيط بشري - بيثيا - لإلقاء كلمات خفية ، والتي فسرها الكهنة بطرق مختلفة ومتعارضة.
من خلال الذكاء الاصطناعي ، نخلق آلهة جديدة سيتفوق عقلها إلى حد كبير عقلنا. وسوف يكون تفكيرهم وراء فهمنا. وبالتالي سنواجه معضلة لا تطاق. هل يجب أن نثق في آلهة السيليكون الجديدة هذه على الإيمان الأعمى؟ من غير المرجح أن تكون الذكاء الاصطناعي على مستوى الإنسان مع عدم القدرة على شرح أسبابه مقبولًا اجتماعيًا. هذا يتركنا أمام خيار واحد فقط: تطوير الذكاء الاصطناعي إلى أبعد من ذلك ، وتزويده بخصائص إنسانية مثل الذكاء العاطفي والتعاطف والوعي. في الواقع ، ستكون هذه هي الطريقة الوحيدة لحل مشكلة التواصل بين الأجهزة الذكية وبيننا. سيتعين على آلات المستقبل التقاط عواطفنا بشكل حدسي والتكيف مع الحالة المزاجية والمظهر النفسي. سيكون عليهم أن يتعلموا كيف نشعر ، من خلال تحليل صوتنا وعباراتنا ، واستخلاص النتائج على أساس البيانات الضخمة التي قد جمعوها عنا على مر السنين. هكذا سيكونون قادرين على كسب ثقتنا وأن يصبحوا جزءًا من المجتمع البشري.
على عكس أصدقائنا "الإنسان" ، فإن هذه الآلات الذكية عاطفية تعرف كل شيء عنا. لن نكون قادرين على إخفاء أي شيء عنهم. ربما يعرفون عنا أكثر مما نعرف عن أنفسنا ؛ وهذه هي الطريقة التي سيتمكنون من توجيهنا بها لاتخاذ قرارات وخيارات أفضل في حياتنا. إن امتلاك شخص ما كهذا في الحياة أمر لا يقدر بثمن ، وجعل الترحيب بالذكاء الاصطناعي أكثر إنسانية وتعاطفا سيكون موضع ترحيب.
ومع ذلك ، فإن هذا الاعتماد على مثل هذه الآلة الذكية يطرح عددًا من الأسئلة الأخلاقية. إذا كانت لدينا آلة لحمايتنا دائمًا من أخطائنا ، مثل أحد الوالدين أو الشركاء ذوي النوايا الحسنة والحميدة ، كيف سيتعلم البشر في المستقبل من ارتكاب الأخطاء ، وبالتالي ينضجون كأفراد؟ ألن يؤدي الذكاء الاصطناعى الذي يتسم برعاية شاملة إلى رعاية أطفال وثقافة؟ وماذا عن تحقيق الذكاء الاصطناعي؟ هل ينبغي لنا أن ندفع حدود التكنولوجيا لجعل الآلة مدركة ذاتياً؟ هل سيكون من الحكمة أن تتنفس الحياة في مزيج من الأسلاك ومراوح التبريد ورقائق؟ تحفة ماري شيلن تحفة القوطي ماري شيللي ، وبليد رانر من ريدلي سكوت تقدم رؤى مفيدة لأي شخص يطمح نحو هذا المستقبل.
من المؤكد أنه يجب وضع حدود جعل الذكاء الاصطناعي أكثر إنسانية قبل تحقيق هذا الهدف على الإطلاق. سيجعل الوعي الذاتي آلات قادرة على تحديد أهدافها الخاصة ، والتي قد تكون مختلفة بعض الشيء عن أهدافنا. نظرًا لاعتمادنا المتزايد عليها في المستقبل ، قد تقرر تلك الآلات التي تدرك نفسها جيدًا التلاعب بثقتنا لتحقيق أهدافها. 
شكرا لكم هذا كان كل شئ

إرسال تعليق

أحدث أقدم
close
Paste your AD Code here