تطبيقات‭ “‬الذكاء‭ ‬الاصطناعي‭” ‬الحيويّة

تطوّرات‭ ‬متسارعة‭ ‬وعوائق‭ ‬محتملة

در‭ ‬العوفي – باحث‭ ‬بالهندسة‭ ‬الحيويّة

عملت – في خريف عام 2016م – مع فريق متخصّص من جامعة الملك عبدالله للعلوم والتقنية لدراسة مقترح بحث حيوي يهدف إلى استئصال الخلايا السرطانيّة من خلال التقنية المتناهية الصغر، وتحديدًا باستخدام جزيئات معدن السيريوم النانوية (1).

ومعدن السيريوم من المعادن الطبيعية، التي تتميز بإمكانية وجودها بحالتَيْ أكسدة وفق حمضيّة الوسط المحيط (2) (3).

تشير الدراسات إلى أنَّ الخلايا السرطانيّة تنمو بوسط أكثر حمضية من الخلايا السليمة (2) (4) (5)، فيمكن حينئذٍ لعنصر السيريوم أن يستهدف الخلايا السرطانيّة (وسط حمضي) بزيادة إجهاد التأكسد، ومن ثَمَّ، الموت المبرمج لهذه الخلايا، دون التأثير في الخلايا السليمة (وسط أقل حمضية).

وعلاوةً على انتهاء البحث بنتائج مبشرة، فإنَّ الطبيعة الانتقائيّة لجزيئات السيريوم النانويّة تجاه الخلايا السرطانيّة – المتغيّرة وفق الوسط – تدعو إلى التأمُّل في تطبيقات الذكاء الاصطناعي –الأكثر ذكاءً– تجاه صحة الإنسان.

كيف يمكننا الاستفادة من الخصائص الفريدة للعناصر لحلّ العقبات التي يصعب حلّها بواسطة أدوات أخرى؟ وكيف يمكننا أن نصمِّم تقنيات قادرة على تحليل المعطيات، واتخاذ القرارات لتحقيق نتائج مرغوبة؟ وكيف يمكننا الاستفادة من البيانات الضخمة لإنشاء خوارزميات يمكنها قراءة البيانات، والتنبُّؤ بالأمراض البشريّة وتشخيصها وعلاجها؟

تهدف هذه المقالة إلى استعراض التطوّرات المتسارعة بالتطبيقات الحيويّة لتقنيات الذكاء الاصطناعي، مع تسليط الضوء على أبرز التحديَّات التي تواجه هذه التقنية.

نظرة شاملة للذكاء الاصطناعي

يشير الذكاء الاصطناعي – بوصفه العام- إلى مجال العلم الذي يدرس «المعاملات الذكيّة» بخلاف الذكاء الإنساني والحيواني. شريطة أن تمتاز هذه المعاملات بقابليّة استشعار البيئة المحيطة، ومن ثمَّ اتّخاذ الاجراءات التي تزيد من فرص تحقيق الهدف (كما هو مبين بالشكل رقم 1)، إذ يصف العالمان روسل ونورفيج – مؤلفا الكتاب الأكثر شيوعًا بعلم الذكاء الاصطناعي- أنَّ جوهر الذكاء الاصطناعي يكمن بقابليّة المعامل لتغيير السلوك وفق البيئة بغرض تحقيق الهدف(6).

وقد تكون هذه المعاملات غير برمجيّة (مثل: المنظم الحراري)، غير أنَّ الذكاء الاصطناعي البرمجي هو الأكثر شيوعًا عند إطلاق وصف الذكاء الاصطناعي، الذي يشير إلى تصميم البرمجيات القادرة على محاكاة وظائف العقل البشري بالتعلّم وحلّ المشكلات (6).

بهذا الجانب، الذي يُشار إليه بالتعلُّم الآلي، يجري تزويد البرمجيات بعدد كبير من البيانات بجانب معين، وبعد ذلك يجري تصميم خوارزميات تمكّن من اتّخاذ القرار وفق مبدأ استشعار المدخلات، ومقارنتها بالبيانات التي جرى تخزينها مسبقًا، من دون أن تكون مبرمجة لذلك (7).

تعتمد جودة منتجات الذكاء الاصطناعي بشكل مباشر على كمية البيانات المدخلة، وهذا ما يدعو كثيرًا من الشركات الرائدة بتقنيات الذكاء الاصطناعي، كشركة غوغل، وآي بي أم، وفيسبوك، إلى المحاولة الدائمة للحصول على البيانات، حتى وُصِفت البيانات أنها «نفط العصر الحديث».

وبآلية أكثر ذكاءً، يجري أحيانًا تزويد البرمجيات بيانات أساسيَّة تسمى «بيانات التدريب»، وهي تمكن الآلة من بناء نموذج رياضي، فيُستخدم مع مجموعة بيانات أخرى لاتّخاذ قرارات وفق مطابقة النموذج.

ويجري تزويد البرمجيات بخاصية التعديل المستمر على النموذج كلَّما استُخدم بهدف الحصول على نتائج أكثر دقة، وبهذا تكون الآلة أكثر ذكاءً مع اتّخاذ المزيد من القرارات، تمامًا كما يجري تدريب الطبيب مثلًا من خلال التجربة (الشكل 2).

يُستخدم هذا النوع من التعلُّم الآلي غير الخاضع للإشراف عندما يكون النموذج المرجعي غير معروف على وجه الدقة، فيُترك للآلة خاصية التعلُّم، وبناء النموذج وفق التجربة بشكل آلي. ويشكّل هذا النوع من التعلم الآلي الثورة الحقيقية بتقنيات الذكاء الاصطناعي، إذ تتفوق به الآلة على القدرات البشرية (8).

وبتجربة أجريت في عام 2018م، طوّر باحثون من مستشفى جامعة سيول الوطنية خوارزمية ذكاء اصطناعي لقراءة صور إشعاعية للصدر وتحليلها، بهدف تحديد احتماليّة وجود خلايا سرطانيّة، وفي الوقت ذاته، عُرضت الصور الإشعاعية على أطباء متخصصين بمجال قراءة الصور، فكانت النتيجة تفوق البرنامج بدقة قراءة الصور وتحليلها على 17 من أصل 18 طبيبًا (9).

وبتجربة أخرى أُجريت أيضًا في عام 2018م من باحثين من شركة غوغل للذكاء الاصطناعي الحيوي، جرى تحليل عيّنات أنسجة لتحديد أورام سرطان الثدي المحتملة، فاستطاعت هذه الخوارزميّة الذكيّة تحديد أجزاء سرطانيّة من العيّنات لا يمكن رؤيتها بالعين البشرية.

وبتكرار التجربة على مجموعة من العيّنات فقد تحققت دقة تشخيص تصل إلى 99%. وعند إعطاء العيّنات للمختصين للكشف بالطرائق المخبريّة التقليديّة، تطلبت عمليّة الكشف ضعف الوقت الذي استهلكته الخوارزميّة للوصول إلى دقة مشابهة (10).

شكل‭ ‬رقم‭ ‬1‭: ‬نموذج‭ ‬توضيحي‭ ‬لأبسط‭ ‬أنواع‭ ‬المعاملات‭ ‬الذكية‭ ‬‭(‬6‭) ‬‭. ‬ (بتصرف)

تطورات متسارعة

بالإشارة إلى الأبحاث القائمة بتقنية الذكاء الاصطناعي بالمجال الطبي، يعتقد كثير من الباحثين أن تحلّ هذه التقنية قريبًا جدًّا محل تقنيات الطب التقليدي (11) (12)، ما دعا أحد الباحثين بالمجال بجامعة هارفارد إلى أن يشير إلى اقتراب احتمالية رؤية المرضى لأجهزة الكمبيوتر قبل رؤية الطبيب (12).

وبنظرة متفائلة، يعتقد علماء المجال أن تسهم هذه التقنية في تقليل الأخطاء الطبيّة المترتبة على التشخيص الخاطئ (12)، وزيادة الدقة بتشخيص الأورام (13)، وزيادة فعالية أنظمة التوصيل الدوائي لتحقيق التأثير العلاجي (14)، وتشخيص الأمراض النفسيّة (15)، والأمراض المزمنة (16)، وغيرها من التطبيقات.

لم تعد التطبيقات الحيويّة للذكاء الاصطناعي والتعليم الآلي ضربًا من ضروب الخيال العلمي، بل إنَّ المجال يخطو خطوات متسارعة لحيّز التنفيذ. فبالنظر إلى قاعدة بيانات الدراسات السريريّة الأمريكيّة، وباستخدام مصطلحات بحث، مثل: «ذكاء اصطناعي»/«تعلُّم آلي»، نجد أنَّ هناك ما يقارب 78 تجربة سريريّة بالذكاء الاصطناعي يجري اختبارها في الوقت الراهن على البشر (حتى تاريخ إعداد هذه المقالة)، والتي تستهدف علاج 242 حالة مرضيّة، وفق التوزيع الجغرافي المبيّن بالشكل رقم 3 (17). والتجربة السريريّة هي المرحلة التي تسبق مرحلة طرح المنتج بالأسواق، وتهدف إلى تجربته على عينة من المتطوعين لاستخراج إثباتات عن سلامة المنتج وفعاليته عند استخدامه على البشر، ومن ثَمَّ، الحصول على موافقة الجهات الرقابيّة لتوزيع المنتج الطبي بالأسواق لاستخدامه لغرض علاجي محدد.

النظر الرقابية، التي ينبغي مراعاتها ليتسنى طرح منتجات هذه التقنية للممارسة الصحية (شكل 4).

أوَّل التحديات الفنيّة يتعلّق بالتجارب السريريّة لتقنيات الذكاء الاصطناعي. فلدى الجهات الرقابيّة قوانين صارمة تتعلّق بالدراسات السريريّة، التي يجب أن تتضمن التفسير العلمي للطريقة التي مكّنت من الحصول على النتائج. غير أنَّ خوارزميات الذكاء الاصطناعي تعتمد على أنظمة رياضيّة معقّدة ويصعب تفسيرها، وهو ما يطلق عليه «صندوق التقنية الأسود»، الذي يفسّر آلية معالجة البيانات المدخلة للحصول على النتائج. وعليه، فعدم القدرة على فك شيفرات «الصندوق الأسود» وتوضيح الإجراءات الداخليّة للخوارزميّة يقف عائقًا أمام الحصول على موافقة الجهات الرقابيّة لإجراء الدراسة السريريّة، أو الموافقة على موثوقيّة نتائج الدراسة، ومن ثَمَّ، عدم تصريح المنتج للاستخدام الطبي.

وعلاوةً على ذلك، تخضع الدراسات السريرية لمجموعة من المعايير المحددة مسبقًا، وتُعرف «بالممارسة السريرية الجيدة»، التي تحدّد الاشتراطات العامة للدراسات السريريّة لضمان جودة مخرجات الدراسة من جانب، وأخلاقيات العمل البحثي المتعلّقة بحقوق المشاركين بالدراسة من جانبٍ آخر.

وبالنظر إلى حداثة تقنيات الذكاء الاصطناعي، فعدم وجود منظمات مرجعيّة تتولى مهمة تقديم الاشتراطات العامة للدراسات السريريّة المتعلّقة بالذكاء الاصطناعي يعدّ تحدِّيًا أساسيًّا.

تجدر الإشارة إلى بدء عدد من الجهات الرقابية العمل لسد هذه الحاجة، إذ جرى اقتراح كتابة مسودة بعنوان «ممارسة التعلُّم الآلي الجيدة» (18)، بهدف تحديد أفضل الممارسات المتعلًقة بتقنيات الذكاء الاصطناعي. 

شكل2‭: ‬نموذج‭ ‬توضيحي‭ ‬لعملية‭ ‬التعلّم‭ ‬الآلي‭ ‬في‭ ‬برمجيات‭ ‬الذكاء‭ ‬الاصطناعي‭ ‬‭(‬12‭)‬‭. ‬(بتصرف) ‬

ويعد عدم ثبات «نموذج» الخوارزمية تحديًا فنيًّا آخر من وجهة النظر الرقابية. ففي حين أنَّ بعض تقنيات الذكاء الاصطناعي قد بُنيت على آلية «التعلُّم الآلي» – كما تم الإشارة إليه مسبقًا (شكل 2) – حيث تقوم الخوارزمية بعملية تعلُّم مستمرة ينتج عنه تغيٌّر مستمرٌّ بالنموذج، فينشأ عن ذلك السؤال حول ما إذا كانت الخوارزمية ستظل مستوفيةً لمتطلبات السلامة والفعالية بعد التحديث أم لا؟ فآلية مراجعة الملفات الفنية للمنتجات الطبية -بالعمل الرقابي الحالي- تعتمد بشكل مباشر على ما يتم التنويه إليه بالملف الفني للمنتج، وعند رغبة المصنع بتغيير بعض المعلومات الفنية فيخضع ذلك لدورة مراجعة جديدة، وطلب تصريح جديد مزودًا بالأدلة العلمية. أما الحال مع تقنيات الذكاء الاصطناعي، فالتقنية تعتمد بشكل مباشر على التغيُّر المستمر للنموذج، ويعدُّ هذا تحديًا رقابيًّا نظرًا لاحتمالية التأثير في سلامة المنتج وفعاليته. ولتلافي هذه العقبة، قدَّمت الجهات الرقابية مقترحًا للمصنعين، يتلخص بتقديم المصنع «خطة مسبقة للتحكُّم بالتغيير»، والتي ينبغي أن تشتمل على تحديد مهمتين: لوصف العناصر المتغيرة خلال عملية التدريب الآلي، وكيفية تمكُّن الخوارزمية من التعلُّم والتغيير بالنموذج مع الحفاظ على استيفاء اشتراطات السلامة والفعالية (19).

تتركز التحدّيات الأخلاقيّة لتقنيات الذكاء الاصطناعي – بشكل أساسي- حول سرية معلومات المرضى، وآلية تبادل هذه المعلومات (20).

وتولي الأنظمة الصحية – بالممارسات الصحية العامة- والممارسة السريرية الجيدة – بالدراسات السريرية- أولويّة قصوى لسرية البيانات، ويحظر تبادل بيانات المرضى خارج أنظمة المنشآت الصحيّة. غير أنَّ الموضوع مختلفٌ تمامًا بتقنيات الذكاء الاصطناعي، التي تعتمد على تخزين البيانات لبناء النموذج، ومن ثَمَّ، ستكون البيانات عرضةً للتبادل؛ وهذا ما ينتهك سياسة الخصوصية.

وتوفر تقنية الذكاء الاصطناعي نهجًا يرتكز على المريض، فمن حقوق المرضى تعزيز الشفافية بخصوص معلومات التدريب، وطرائق معالجة البيانات، والتغيّرات المحتملة بنموذج التدريب، وإثبات جودة المخرجات، لذا ينبغي تقديم هذه المعلومات للمرضى بصيغة واضحة بكتيبات الاستخدام وملصقات التقنية (18).

وتعدُّ الطبيعة المعتمة لتقنيات التعلم الآلي – ما أشير إليه من قبل بالصندوق الأسود- أحيانًا عائقًا أمام تقديم هذه المعلومات. وللتعامل مع هذه التحدّيات الأخلاقية، يسعى كثير من المنظمات والتجمعات الرقابيّة ومعاهد المعايير القياسيّة إلى تقديم مقترحات ليأخذ مصنعو التقنية (21).

آفاق مبشرة أم خطرة؟

على الصعيد العالمي، أشارت مؤخرًا منظمة الغذاء والدواء الأمريكية إلى استقبالها طلبات عدد كبير من المنتجات الطبيَّة التي تعتمد على تقنيَّة الذكاء الاصطناعي (18). واستجابة لذلك قامت المنظمة بشهر يناير من عام 2021م بطرح ومناقشة مقترح رقابي للتعامل مع هذه المنتجات (19)، بما يتضمن دعم التقنية من جانب، والحفاظ على سلامة المنتجات وفعاليتها من جانب آخر.

وتضمن المقترح أيضًا دعوة المنظمات الرقابية الدولية إلى المشاركة بوجهات النظر لوضع حلول للتحديات الفنية للتقنية. وعلاوة على ذلك، فقد أُعلن في شهر أبريل من عام 2021م إصدار شهادة إذن بالتسويق لأول منتج طبي يعتمد على تقنية الذكاء الاصطناعي، ويتعلَّق بالمساعدة على الكشف عن العلامات المحتملة لسرطان القولون، من خلال مسار الأجهزة المبتكرة التي تستهدف أمراضًا ليس لها حلول علاجيَّة مسبقة (22). كما أشارت المنظمة عن إنشاء وحدة تنظيمية جديدة بعنوان: مركز التميّز الصحي الرقمي، يهدف إلى إنشاء الشراكات لدعم تطوّر الصحة الرقمية، ومشاركة المعلومات، وابتكار نهج متعدد الجوانب لتعزيز رقابة تقنيات الذكاء الاصطناعي والتعلّم الآلي (22).

من جانبٍ آخر، يؤمن علماء آخرون بالخطر المحتمل للتطورات المتسارعة بتقنيات الذكاء الاصطناعي. ففي عام 2015م، أثار عالم الفيزياء ستيفن هوكينج (Stephen Hawking) ورجل الأعمال إيلون ماسك (Elon Musk) المخاوف من ابتكار تقنيات لا يمكن السيطرة عليها، ووقعوا بذلك على وثيقة مفتوحة شاركهم بها ما يقارب 8000 عضو، بقائمة تضم كثيرًا من علماء التقنية (23).

تنوِّه هذه الوثيقة – التي صدرت من معهد مستقبل الحياة- إلى أهمية التقنية بمعالجة الأمراض، ولكن تصف بالوقت نفسه المخاطر المحتملة من إنشاء أنظمة بذكاء خارق، وتحديدًا الأنظمة المستقلَّة التي يجري تطويرها وفق آلية التعلَّم الآلي المستمر.

يجب أن تظل التقنية تحت تحكّم بشري، والأنظمة المشرِّعة لهذه التقنية يجب أن تمنع أيَّ منزلقاتٍ قد تؤدي إلى الاستقلال الآلي التام، وهذا ما يصعِّب التحكم به بعد ذلك. فالمخاطر المحتملة – بوصف المؤيدين لهذا التوجُّه- قد تتشكل باختراق أمن المعلومات والخصوصية، بإحدى صورها، وقد تتشكّل بهيمنة الآلة، وتهديدها الوجود الإنساني، بصورة قاتمة أخرى.

هل ستكتب تقنية الذكاء الاصطناعي فصلًا جديدًا للتطور الذي تشهده البشرية، كما يعتقد كثيرون ممن يرون أنَّ هذه التقنية هي أعظم ما اكتشفه البشر منذ اكتشاف النار؟ أم سيشكّل التطوّر المستمر للذكاء الآلي تهديدًا وجوديًّا للجنس البشري، كما تشير أفلام الخيال العلمي، وأشار ستيفن هوكينج وإيلون ماسك؟

Share This