يتحدث هذا المقال عن أهمية وصعوبة تبني تقنية الذكاء الاصطناعي بشكل يحفظ حقوق البشرية ويحد من أضرارها، ويتناول بعض الأفكار حول كيفية تحقيق ذلك.
تحدثت مؤخراً وسائل الإعلام عن أداة تعرف باسم ChatGPT التي تستطيع الإجابة على أسئلة الناس وإنشاء النصوص بدقة عالية، ولكنها أيضاً تستخدم في إنتاج المعلومات الخاطئة والتلاعب بالبشرية. لذلك يجب على الشركات التي تستخدم تقنية الذكاء الاصطناعي أن تتخذ إجراءات للحفاظ على حقوق البشرية.
يشير الخبراء إلى ضرورة الركز على الجانب الإنساني والتأكد من عدم تأثير تلك التقنيات على البشر بصورة سلبية. ويعتقد أن مفتاح النجاح هو بناء علاقة متينة مع العملاء وتقديم المزيد من الفائدة بدلاً من استخراج الأرباح فقط.
ولأن تقنية الذكاء الاصطناعي قادرة على القيام بالكثير من المهام بصورة أكثر فعالية ودقة، يمكن أن تشكل تهديداً للبشرية إذا لم يتم التعامل معها بحذر. لذا يجب إضافة بعض الكشف اليدوي والتدخل البشري لتفادي الأخطاء والتلاعب، وهذا ما يسمى بـ 'الاحتكاك الجيد'.
وعندما يتم السماح للشركات بالوصول إلى بيانات العملاء، يجب ضمان موافقتهم على ذلك بطريقة شفافة وعدم التلاعب بهم. وإذا شعر العملاء بأنهم يتم التلاعب بهم، فإن هذا سيؤدي إلى فقدان الثقة والنزعة عن الشركة. لذا يجب على الشركات توفير آليات للموافقة على مشاركة البيانات بطريقة شفافة وسهلة، وبضغطة زر واحدة.