شارك على Facebook شارك على Twitter شارك على Google+ شارك على Reddit شارك على Pinterest شارك على Linkedin شارك على Tumblr ترجمة/ علاء البشبيشي بإمكان الآلات التي تُدار بواسطة الحاسوب القيام بأمور عديدة، وإنجاز مهام معقدة، لكنها تواجه معضلة كبرى حين يكون عليها اتخاذ قرارات أخلاقية.. فهل يمكن تعليم الآلة كيفية التفريق بين الصواب والخطأ؟ في فيلم الخيال العلمي الكلاسيكي، الذي عُرض في العام 2001، واجه الحاسوب (هال) الخاص بسفينة الفضاء معضلة؛ حيث كانت التعليمات تتطلب أن يقوم بأمرين: أولا؛ إنجاز مهمته الفضائية بالقرب من كوكب المشتري. وثانيًا؛ الحفاظ على سرية الغرض الحقيقي من البعثة، بحيث لا يعرفه طاقم السفينة. من أجل التغلب على التناقض، حاول (هال) قتل أفراد الطاقم! الآن، وبينما تصبح الآلات أكثر استقلالية، تبدأ فكرة الآلات التي يسيطر عليها الحاسوب، وتواجه قرارات أخلاقية، في الخروج من عالم الخيال العلمي إلى أرض الواقع. لذلك فإن المجتمع بحاجة إلى إيجاد طرق تضمن أن هذه الآلات مجهزة لاتخاذ قرارات أخلاقية، أفضل من (هال)، بالإضافة إلى وضع قواعد للتعامل معها. وأفضل مجموعة مبادئ معروفة لأخلاقيات الآلة هي (القوانين الثلاثة للروبوتات) التي صاغها كاتب الخيال العلمي، إسحاق أسيموف، في العام 1942. القوانين تقتضي أن تقوم الروبوتات بحماية البشر، وإطاعة الأوامر، والحفاظ على نفسها، وفق هذا الترتيب. لكن للأسف، هذه القوانين قليلة النفع في عالم الواقع؛ حيث يُطلب من الروبوت في ساحة المعركة (على سبيل المثال) انتهاك القانون الأول. وللتغلب على هذه المعضلة لابد من إحراز تقدم في ثلاثة مجالات على وجه الخصوص، هي بمثابة ثلاثة ضوابط تحكم قوانين الروبوتات الثلاثة التي صاغها أسيموف قبل أكثر من نصف قرن: القانون الأول: نحن بحاجة إلى قوانين لتحديد المسئولية الملقاة على عاتق المصمم أو المبرمج أو الشركة المصنعة أو المشغل إذا أخطأت الطائرة بدون طيار، ذاتية التحكم، في تنفيذ هجوم، أو وقع لسيارة بدون سائق حادثًا. من أجل تحديد المسئولية، يجب على أنظمة التحكم إبقاء سجلات مفصلة تمكنها من شرح الأسباب الكامنة وراء القرارات عند الضرورة. هذا له انعكاساته على تصميم النظام؛ حيث أنه، على سبيل المثال، يستبعد استخدام الشبكات العصبية الاصطناعية، ونظم اتخاذ القرارات التي تتعلم من الأمثلة (بالقياس) بدلا من طاعة قواعد محددة سلفًا. ثانيًا: حينما يتم تركيب النظم الأخلاقية في الروبوتات، فإن الأحكام التي تتخذها ينبغي أن تكون صائبة في نظر معظم الناس. لذلك ينبغي أن تكون تقنيات الفلسفة التجريبية -التي تدرس كيفية استجابة الناس للمعضلات الأخلاقية- قادرة على المساعدة أخيرًا، والأهم: لابد من تكثيف التعاون بين المهندسين وعلماء الأخلاق والمحامين وصناع السياسات، لأن كلا منهم سيضع قواعد مختلفة تماما إذا عملوا بمفردهم. صحيح أن التكنولوجيا أدت إلى تقدم البشرية، لكن كل خطوة للأمام تطرح أسئلة جديدة مثيرة للقلق. وبمجرد الإجابة عن هذه الاستفسارات الأخلاقية، سيصبح من السهل على البشرية أن تستمتع بالفوائد التي تجلبها هذه التقنيات.