التخطي إلى المحتوى الرئيسي

أخلاق الذكاء الاصطناعي: كيف سنصل لأنظمة ذكاء اصطناعي تحترم قيمنا الإنسانية؟

موقع ايجي يست مشاهدة احدث الافلام اون لاين وتحميل بروابط مباشرة وعلى اكثر من سيرفر افلام عربي افلام اجنبي افلام اون لاسن ومسلسلات عربية واجنبيه مترجمة من موقع ايجي بست egybest تهدف أنظمة الذكاء الاصطناعي إلى جعل حياتنا أفضل بكل الطرقة الممكنة،
ويشهد هذا الذكاء تطوراً كبيراً يوماً بعد يوم، فكانت البداية من الذكاء
الاصطناعي الضعيف أو الضيق ذو القدرات المحدودة وردود الفعل المبرمجة،
بينما تتوجه الآن كل الجهود نحو الذكاء الاصطناعي القوي الذي يرتكز على
محاولات لنسخ الحالات العقلية الشبيهة بالإنسان، والقادر على جمع
المعلوماتتهدف أنظمة الذكاء الاصطناعي إلى جعل حياتنا أفضل بكل الطرقة
الممكنة، ويشهد هذا الذكاء تطوراً كبيراً يوماً بعد يوم، فكانت البداية
من الذكاء الاصطناعي الضعيف أو الضيق ذو القدرات المحدودة وردود الفعل
المبرمجة، بينما تتوجه الآن كل الجهود نحو الذكاء الاصطناعي القوي الذي
يرتكز على محاولات لنسخ الحالات العقلية الشبيهة بالإنسان، والقادر على
جمع المعلومات وتحليلها ومراكمة الخبرات من المواقف، ومن الأمثلة عليه
المركبات ذاتية القيادة.

إنّ نظام الذكاء الاصطناعي القوي قادر على التعلم ذاتياً بدون مساعدة
بشرية حيث يوّلد معرفته الخاصة، لذلك لن يكون الإنسان قادراً على معرفة
قدرات هذا الذكاء أو القرارات التي سيتخذها، ومن هنا تبرز الحاجة إلى
إنشاء إطار أخلاقي يحدد مجال العمل ويمنع النظام من اتخاذ قرارات تتعارض
مع الأخلاق، فهل من الممكن أن نبرمج أخلاق الذكاء الاصطناعي؟ وهل يمكن أن
يحترم هذا الذكاء القيم الإنسانية؟ هذا ما سنناقشه في مقالنا.

اقرأ المزيد: ماذا تفعل عند فشل الخوارزميات؟ ابحث عن أقرب إنسان وألقِ اللوم عليه

مخاطر التعلم الذاتي

مشاكل خوارزميات التعلم

تشكل البيانات الوقود الذي يغذي الذكاء الاصطناعي، لكن ما الذي سيحدث إذا
احتوت هذه البيانات على عيوب، أو إذا كانت خوارزميات التعلم غير مضبوطة
بشكل مناسب لتقييم هذا البيانات، عندها يمكن للأمور أن تتخذ منحى خاطئ
تماماً، ففي عام 2016 صممت شركة مايكروسوفت بوت دردشة Chatbot سُمي Tay
للتفاعل مع مستخدمي تويتر، لكن الأمور لم تسر على نحو جيد إطلاقاً.

استغل مجموعة من المستخدمين خطأ في خوارزمية البوت، وقاموا بإفساده من
خلال تعليمه العديد من الأفكار العنصرية والمهينة لقناعات ومعتقدات
الآخرين، وفي أقل من 24 ساعة على إطلاقه نشر عدد من التغريدات المثيرة
للجدل، كان أهمها تعبيره عن دعمه للإبادة الجماعية، مما دفع الشركة
لإيقافه فوراً، وكانت سرعة تبنيه لمثل هذه الأفكار درساً قاسياً لها.

مشكلة الصندوق الأسود

في حالة الذكاء الاصطناعي الضيق يمكن للمهندسين في مرحلة التصميم تنفيذ
سلسلة قرارات لوضع قواعد معينة، كما يمكنهم توقع سلوك هذا الذكاء بسهولة،
لكن في حالة الذكاء الاصطناعي القوي فإنّه يتعلم مباشرةً من البيئة
ويتكيف معها، وذلك من خلال خوارزميات تعلم تقوم بتحليل المعطيات مرة بعد
أخرى ولا يمكن توقع نتائجها بشكل دقيق، حيث تختلف النتائج باختلاف
المعطيات، وبالتالي لا يمكن التنبؤ دائماً بتصرفاته.

تتصرف الآلة الذكية في مثل هذه الحالة كالصندوق الأسود الذي لا يعرف
أداءه الداخلي، أي لا يمكن للإنسان معرفة سبب اتخاذ قرار ما وهذا أمر
خطير وبشكل خاص عندما يتعلق الأمر بالسيارات ذاتية القيادة أو الطائرات
بدون طيار، والتي تحوي خوارزميات معقدة قد تعرض قراراتها حياة الإنسان
للخطر. لذلك من الضروري وجود خوارزميات تلعب دور أخلاق الذكاء الاصطناعي
بحيث تفسر سبب اتخاذ القرارات وتميز بين الصح والخطأ.

اقرأ المزيد: كل ما تريد معرفته عن تقنية التوأم الرقمي Digital Twin

الانحياز

تعد مشكلة الانحياز لعرق أو جنس أو عمر معين من أصعب التحديات الأخلاقية
التي تواجه الذكاء الاصطناعي. تنشأ هذه المشكلة أساساً من المعطيات نفسها
وليس خوارزميات التعلم، حيث تتحدد جودة النموذج بكميّة ونوعيّة البيانات
المقدمّة له، ومن منظور أساسي فإنّ النتائج الجيدة هي تلك التي تزيد
الإنتاجية أو السعادة للغالبية العظمى من الناس، لكن يمكن تخيل عدد لا
يحصى من المشاكل الناتجة عن انحياز ما في بيانات سابقة.

لنأخذ الأنظمة الأمنية التي تستخدم للتنبؤ بمرتكبي الجرائم على سبيل
المثال، إذ تُدرَّب هذه الأنظمة للتميز اعتماداً على عرق أو جنس الفرد،
لا على أفعاله وتحركاته، وأنظمة التعرف على الوجه التي ينقصها تنوع في
العينات، لا تستطيع التعرف على الأشخاص إلى إذا كانوا من نفس عرق عينة
التدريب، والعديد من الأمثلة الأخرى التي تقود إلى مشاكل أكبر.

اقرأ المزيد: جوجل دوبليكس: خطوة جديدة من جوجل لتسهيل حياتك باستخدام
الذكاء الاصطناعي

أخلاق الذكاء الاصطناعي



إن تضمين الأخلاق للذكاء الاصطناعي عملية صعبة جدًا، وذلك بسبب غياب
الإطار الأخلاقي المقبول عموماً، فبينما يفضل بعض الناس المبادئ
الأخلاقية الواردة في النصوص الدينية كالإنجيل والقرآن وغيرها، يختلف
الفلاسفة فيما إذا كانت هذه المبادئ يجب أن تعتمد على الحقوق والواجبات،
أو المنفعة القصوى لأكبر عدد من الناس أو التصرف بشكل قويم.

كما أنه لبناء أنظمة ذكاء اصطناعي تتصرف بشكل أخلاقي، يجب أن تكون
الأفكار حول القيم والصواب والخطأ دقيقة بشكل كافٍ ليتم تطبيقها على
الخوارزميات الحاسوبية، لكن هذه الدقة غير موجودة في المبادئ الأخلاقية
الحالية، فما يمكن أن يكون صائباً بنظر فئة ما من الناس ربما يكون خاطئ
بنظر فئة أخرى.

وفي هذا الإطار، يقترح محمد معاز Mohamad Maaz في دراسة أجراها لصالح
منظمة Internet Society حول أخلاق الذكاء الاصطناعي، أنّ الحل الأمثل
يكمن بزيادة وظيفة الأداة Utility Function بأكبر قدر ممكن، إذ يتم
استخدام هذه الوظيفة لتحديد قيمة ما للنتائج أو القرارات، والحل الأفضل
هو الذي يزيد المنفعة إلى أقصى حد و/أو يقلل من الضرر لأقصى درجة ممكنة،
وبالتالي تتخذ خوارزمية أخلاق الذكاء الاصطناعي القرارات الصائبة.

على سبيل المثال لنفترض وجود سيارة ذاتية القيادة في وضع لا يمكن تجنب
الحادث فيه، وإمّا أن تصدم رجلين على الطريق أو تصطدم بجدار مما سيؤدي
لمقتل الراكب بداخلها. بالاستناد إلى الأخلاقيات النفعية فإن القرار الذي
سيقلل من الضرر هو الذي سيؤدي إلى قتل أقل عدد ممكن من الناس، لذلك ينبغي
أن تتحطم السيارة ويموت الراكب بداخلها لإنقاذ الرجلين من المشاة، حيث
أنّ وظيفة المنفعة (وظيفة الأداة) لهذا القرار هي الأعلى.

اقرأ المزيد: تكنولوجيا التعاطف: هل يمكن أن تشعر الأجهزة بأحاسيسنا؟

هل يمكن أن يكون الذكاء الاصطناعي أكثر أخلاقاً من البشر

لشرح ذلك ناقش معاز أيضاً حالة الطائرات المقاتلة بدون طيار قائلًا:

ترتبط المعضلات الأخلاقية الكبرى بحقيقة أن الديمقراطية لا تستطيع
استخدام هذه الطائرات بدون طيار دون قواعد دقيقة، بسبب ما تتضمّنه من
تركيز على القيم الإنسانية وفق مفهومها. أما بالنسبة للمعضلات الصغيرة
فهي العمليات التشغيلية التي تنفذها هذه الطائرات. مثلاً هل توفر
الكاميرات رؤية واضحة للهدف؟ وإذا لم يكن فما الذي يجب على المشغل فعله؟

تؤكد العقيدة العسكرية على أن الخيارات الأخلاقية هي في نهاية الأمر
مسألة قيم تنظمها القواعد العسكرية، وبناءً عليه سيكون من غير المنطقي
اعتبار العامل الاصطناعي قادر على بناء قرار أخلاقي بدلاً من العامل
البشري، لأن الأخلاقيات هي بالضبط ما ينتج عن الذكاء البشري، فلا يمكن
تفويض الآلة وإعطائها الحق بالقتل، لكن يمكن أن يكون الذكاء الاصطناعي
شرطاً لتحقيق أخلاق أفضل كون الطائرات بدون طيار تعاني من ضغوط أقل من
طيار بشري.

اقرأ المزيد: الذكاء الاصطناعي يتحدى البشر من جديد: تعرف على آلة IBM
التي تتحدى البشر في المناظرة! موقع سينما كلوب مشاهدة احدث الافلام اون لاين وتحميل بروابط مباشرة وعلى اكثر من سيرفر افلام عربي افلام اجنبي افلام اون لاسن ومسلسلات عربية واجنبيه مترجمة من موقع سينما كلوب cimaclub

تعليقات

المشاركات الشائعة من هذه المدونة

انضمام هنري كافيل إلى طاقم فيلم Enola Holmes!

أفادت بعض التقارير الصحفية أن الممثل هنري كافيل سيؤدي دور المحقق الشهير، شارلوك هولمز، في فيلم من إنتاج شركة Legendary Pictures Productions، ومقتبس من سلسلة روايات Enola Holmes Mysteries، للمؤلفة نانسي سبرينغر. ومن المقرر أن تؤدي ميلي بوبي بروان دور البطولة في الفيلم (إينولا)، في حين ستقوم هيلينا بونهام كارتر بدور أم إينولا. ومن المقررأفادت بعض التقارير الصحفية أن الممثل هنري كافيل سيؤدي دور المحقق الشهير، شارلوك هولمز، في فيلم من إنتاج شركة Legendary Pictures Productions، ومقتبس من سلسلة روايات Enola Holmes Mysteries، للمؤلفة نانسي سبرينغر. ومن المقرر أن تؤدي ميلي بوبي بروان دور البطولة في الفيلم (إينولا)، في حين ستقوم هيلينا بونهام كارتر بدور أم إينولا. ومن المقرر أن يخرج الفيلم هاري برادبير، أما السيناريو فسيكون من تأليف جاك ثورن، وستتولى شركات PCMA Productions و Legendary Pictures Productions مسؤولية إنتاج الفيلم. وتدور سلسلة الكتب الشهيرة البالغ عددها 6 روايات حول الألغاز والقصص الغامضة التي حلّعا الأخوان شارلوك ومايكروفت هولمز بمعاونة شقيقتهما الصغيرة إينولا، التي

تقرير: تعرف على مسلسلات نتفليكس في شهر سبتمبر

تعرض شبكة نيتفليكس مجموعة متنوعة من الأعمال بين الإيطالي والأمريكي والهولندي وكذلك الإماراتي في سابقة أولى من نوعها: تعرض الشبكة في النصف الاول من شهر سبتمبر الجزء الأول من مسلسل الخيال العلمي الأمريكي Away وهو من تأليف آندرو هينديراكي وبطولة  هيلاري سوانك  وجوش تشارلز ومارك إيفانيز وتاليثا بيتمان، وتدور أحداثه حول إيما جرين رائدة الفضاء الأمريكية التي يجب أن تترك زوجها وابنتها المراهقة من أجل قيادة طاقم فضاء دولي يشرع في مهمة خارج البلاد مدتها 3 سنوات في رحلة هدفها الأمل والانسانية وكيف أننا في النهاية نحتاج لبعضنا إذا أردنا أشياء مستحيلة. http://video-streaming-problems.bravesites.com/ https://bestmans.populiser.com/ https://bestarr.widezone.net/ https://bestsputnik.webgarden.com/ الموسم الخامس من مسلسل الدراما الامريكي Greenleaf وهو من تأليف كريج رايت وبطولة ميرل داندريدج ولين وايتفيلد وكيث ديفيد وكيم هوثورن وديزيريه، وتدور أحداثه حول عائلة جرين ليف والمكونة من مجمع قصر العائلة الفخم وكنيسة الممفيس مع أعضاء العائلة الأمريكيين الأفارقة وهى عائلة عديمة الضمير بأسراره وأكاذيبه الفاضحة.

كابتن أمريكا يعود لعالم مارفل بمسلسل The Falcon and the Winter Soldier لكن بشكل مختلف!

يبدو أن غياب شخصية كابتن أمريكا عن الشاشات لن تطول؛ إذ كشفت أحدث الصور الواردة من مواقع تصوير مسلسل The Falcon and the Winter Soldier المُشتق عن عالم الـ(MCU) -والتي تم تداولها على نطاق واسع- عن عودة الشخصية مرة أخرىيمثل فيلم Avengers: Endgame -إلى جانب فيلم Spider-Man: Far From Home- خاتمة المراحل الثلاثة الأولى من عالم مارفل السينمائي Marvel Cinematic Universe، وبناء عليه كان من الطبيعي أن يشهد الفيلم العديد من التطورات والمفاجآت ولعل كان أبرزها استبعاد مجموعة من أهم وأبرز الشخصيات ضمن هذا العالم وفي مقدمتهم شخصية ستيف روجرز \ كابتن أمريكا -التي جسدها الممثل كريس إيفانز- والذي ظهر في نهاية الأحداث متقدماً بالسن بعدما اختار التقاعد في زمن مختلف وعهد لصديقه سام ويلسون بدرعه ولقبه، لكن إن كان هناك أمر واحد ثابت في عالم الأبطال الخارقين والقصص المصورة فهو أن الشخصيات عادة ما تجد طريقها للعودة إلى الأحداث مرة تلو الأخرى بطرق وأشكال مختلفة. اقرأ أيضاً: بعد Avengers: Endgame: كيف تطورت شخصيات مارفل؟ وما مدى تأثير ذلك؟ يبدو أن غياب شخصية كابتن أمريكا عن الشاشات لن تطول؛ إذ