يستعرض هذا المقال كيف يمكن أن تكون أنظمة الذكاء الاصطناعي غير متوازنة تجاه بعض الفئات السكانية في مجال التصوير الطبي ويناقش الإستراتيجيات المتاحة للحد من تلك التحيزات، ويسلط الضوء على التحديات والفرص المستقبلية.
من خلال النمو المتسارع في تطوير أنظمة الذكاء الاصطناعي (AI) لتحليل الصور الطبية، بدأت المستشفيات والمراكز الطبية في تبني هذه الأدوات في الممارسة السريرية. تعتمد هذه الأنظمة عادة على نوع معين من تقنيات التعلم الآلي (ML) المعروفة باسم التعلم العميق (DL). تتعلم طرق DL تمثيلات البيانات المعقدة من خلال استخدام طبقات متعددة للمعالجة ذات مستويات مختلفة من التجريد، مما يكون مفيدًا لحل مجموعة واسعة من المهام.
في الآونة الأخيرة، أبرزت الأبحاث حول العدالة في ML أن الأنظمة التي تعتمد على ML قد تكون مُحيزة ضد بعض المجموعات الفرعية من السكان، بمعنى أنها تظهر أداءً متباينًا لمجموعات فرعية مختلفة محددة بالسمات المحمية مثل العمر والعرق أو الأصل العرقي والجنس أو الجندر والوضع الاقتصادي والاجتماعي وغيرها. في مجال الرعاية الصحية، يمكن اعتبار السلوك غير المتكافئ للخوارزميات تجاه مجموعات السكان المختلفة مخالفًا لمبادئ الأخلاق الطبية: العدالة والاستقلال والفضيلة وعدم الإذى. في هذا السياق، يصبح تعزيز العدالة في التصوير الطبي أمرًا بالغ الأهمية.
ماذا يعني أن تكون خوارزمية عادلة؟ لنبدأ بالنظر في هذا السؤال في سياق مجموعات المرضى المحددة بلون البشرة أو العرق/الأصل العرقي، حيث قارنت العديد من المقالات الأخيرة أداء أنظمة التصوير الطبي للاشتباه في أمراض عيون وصدور و/أو قلوب. على سبيل المثال، عندما يتعلق الأمر بتشخيص إعتام عدسة العين السكري، يمكن أن تظهر تحيز كبير في البيانات.