الشرق اليوم– مع لجوء المزيد من الأشخاص إلى الذكاء الاصطناعي كـ طبيب الكتروني قائم على الدردشة للحصول على المشورة الطبية، يبقى أن نرى كيف تتراكم هذه الأدوات ضد أو يمكن أن تكمل الأطباء البشريين.
اعتاد بنيامين تولشين، طبيب الأعصاب في جامعة ييل، على رؤية المرضى الذين بحثوا عن أعراضهم على الإنترنت قبل القدوم لرؤيته. وهي ممارسة حاول الأطباء منذ فترة طويلة تثبيطها.حيث كان من المعروف أنGoogle تفتقر إلى السياق وتميل إلى سحب مصادر غير موثوقة عند البحث بها .
ولكن في الأشهر الأخيرة، بدأ تولشين في رؤية المرضى الذين يستخدمون أداة جديدة أقوى بكثير للتشخيص الذاتي. وهى روبوتات دردشة الذكاء الاصطناعي مثل ChatGPT من OpenAI، هو أحدث إصدار من محرك بحث Microsoft Bing الذي يعتمد على برنامج OpenAI) و M-PL) حيث تتنبأ هذه النماذج اللغوية الكبيرة (LLMs)، التي تم تدريبها على النص عبر الإنترنت، بالكلمة التالية في تسلسل للإجابة على الأسئلة بأسلوب يشبه الإنسان. في مواجهة النقص الحاد في العاملين في مجال الرعاية الصحية، يأمل الباحثون والمهنيون الطبيون أن تتدخل الروبوتات للمساعدة في الإجابة على أسئلة الناس. تشير الاختبارات الأولية التي أجراها الباحثون إلى أن برامج الذكاء الاصطناعي هذه أكثر دقة بكثير من بحث Google.
يتوقع بعض الباحثين أنه في غضون العام، سيعلن مركز طبي كبير عن تعاون باستخدام روبوتات الدردشة للتفاعل مع المرضى وتشخيص المرض.
تم إطلاق ChatGPT في نوفمبر الماضي فقط، لكن تولشين يقول إن مريضين على الأقل أخبروه بالفعل أنهما استخدماه لتشخيص الأعراض بأنفسهما أو للبحث عن الآثار الجانبية للأدوية. يقول إن الإجابات كانت معقولة. ويضيف: “إنه أمر مثير للإعجاب ومشجع للغاية من حيث الإمكانات المستقبلية”.
ومع ذلك، يشعر تولشين وآخرون بالقلق من أن روبوتات الدردشة بها عدد من العيوب ، بما في ذلك عدم اليقين بشأن دقة المعلومات التي يقدمونها للأشخاص، والتهديدات للخصوصية والتحيز العنصري والجنساني المتأصل في النص الذي تستمد منه الخوارزميات. كما يتساءل عن كيفية تفسير الناس للمعلومات. يقول تولشين إن هناك احتمالية جديدة للضرر لم تكن موجودة مع عمليات البحث البسيطة على Google أو مدققات الأعراض.
التشخيص بمساعدة الذكاء الاصطناعي
تغيرت ممارسة الطب بشكل متزايد عبر الإنترنت في السنوات الأخيرة. خلال جائحة COVID، زاد عدد الرسائل من المرضى إلى الأطباء عبر البوابات الرقمية بأكثر من 50 بالمائة. تستخدم العديد من الأنظمة الطبية بالفعل روبوتات دردشة أبسط لأداء مهام مثل جدولة المواعيد وتزويد الأشخاص بمعلومات الصحة العامة. تقول نينا سينغ، طالبة الطب في جامعة نيويورك التي تدرس الذكاء الاصطناعي في الطب: “إنها مساحة معقدة لأنها تتطور بسرعة كبيرة”.
لكن روبوتات الدردشة المقروءة جيدًا يمكن أن تنقل التعاون بين الطبيب والذكاء الاصطناعي وحتى التشخيص إلى مستوى جديد. في دراسة نُشرت في فبراير والتي لم تتم مراجعتها بعد، كتب عالم الأوبئة أندرو بيم من جامعة هارفارد وزملاؤه 48 طلبًا تمت صياغتها على أنها أوصاف لأعراض المرضى. عندما قاموا بإدخالها إلى Open AI’s GPT-3 – نسخة الخوارزمية التي كانت تدعم ChatGPT في ذلك الوقت – تضمنت التشخيصات الثلاثة الأولى المحتملة لكل حالة التشخيص الصحيح بنسبة 88 بالمائة. وبالمقارنة، يمكن للأطباء القيام بذلك بنسبة 96 في المائة عند إعطائهم نفس المطالب، بينما يمكن للأشخاص الذين ليس لديهم تدريب طبي القيام بذلك بنسبة 54 في المائة.
يقول بيم: “إنه لأمر مدهش بالنسبة لي أن هذه الأشياء المكتملة تلقائيًا يمكن أن تؤدي إلى فحص الأعراض جيدًا خارج الصندوق”. وجدت الأبحاث السابقة أن مدققات الأعراض عبر الإنترنت خوارزميات الكمبيوتر لمساعدة المرضى في التشخيص الذاتي تنتج فقط التشخيص الصحيح من بين الاحتمالات الثلاثة الأولى بنسبة 51.
يعد استخدام روبوتات الدردشة أسهل أيضًا من مدقق الأعراض عبر الإنترنت لأنه يمكن للأشخاص ببساطة وصف تجربتهم بدلاً من تحويلها إلى برامج تحسب الاحتمالية الإحصائية للمرض. بالإضافة إلى ذلك، يمكن للروبوتات طرح أسئلة متابعة على المريض، مثلما يفعل الطبيب. ومع ذلك، يقر بأن أوصاف الأعراض في الدراسة تمت كتابتها بعناية وكان لها تشخيص صحيح واحد يمكن أن تكون الدقة أقل إذا كانت أوصاف المريض سيئة الصياغة أو تفتقر إلى المعلومات الهامة.
أخطاء الذكاء الاصطناعي
يشعر بيم بالقلق من أن روبوتات الدردشة قد تكون عرضة للمعلومات المضللة. تتنبأ خوارزمياتهم بالكلمة التالية في سلسلة بناءً على احتمالية وجودها في النص عبر الإنترنت الذي تم تدريبه عليه، والذي من المحتمل أن يمنح وزنًا متساويًا، على سبيل المثال، للمعلومات من المراكز الأمريكية لمكافحة الأمراض والوقاية منها وخيط عشوائي على Facebook. قال متحدث باسم OpenAI لـ Scientific American إن الشركة تدرب نموذجها مسبقًا للتأكد من أنها تجيب كما ينوي المستخدم، لكنها لم توضح ما إذا كان يعطي وزناً أكبر لمصادر معينة. وتضيف أن المهنيين في مختلف المجالات عالية الخطورة ساعدوا GPT-4 على تجنب “الهلوسة،”الردود التي يخمن فيها النموذج إجابة من خلال إنشاء معلومات جديدة غير موجودة. بسبب هذا الخطر، تتضمن الشركة إخلاء مسؤولية يقول إنه لا ينبغي استخدام ChatGPT لتشخيص الحالات الخطيرة، أو تقديم تعليمات حول كيفية علاج حالة ما أو إدارة المشكلات التي تهدد الحياة.
على الرغم من أن ChatGPT مدرب فقط على المعلومات المتاحة قبل سبتمبر 2021، إلا أن شخصًا عازمًا على نشر معلومات خاطئة حول اللقاحات، على سبيل المثال، يمكن أن يغمر الإنترنت بمحتوى مصمم لالتقاطه من قبل ChatGPT في المستقبل. تواصل روبوتات الدردشة من Google التعلم من المحتوى الجديد على الإنترنت. يقول مهندس كمبيوتر في جامعة نيويورك: «نتوقع أن تكون هذه واجهة جديدة لمحاولات توجيه المحادثة».
يمكن أن يوفر إجبار روبوتات الدردشة على الارتباط بمصادرها، كما يفعل محرك Bing من Microsoft، حلاً واحدًا. ومع ذلك، أظهرت العديد من الدراسات وتجارب المستخدمين أن روبوتات الدردشة يمكن أن تهلوس المصادر غير الموجودة وتنسيقها لتبدو وكأنها استشهادات موثوقة. إن تحديد ما إذا كانت تلك المصادر المذكورة مشروعة من شأنه أن يضع عبئًا كبيرًا على المستخدم. يمكن أن تتضمن الحلول الأخرى مطوري LLMروبوتات الدردشة التحكم في المصادر التي تسحبها الروبوتات أو جيوش مدققي الحقائق التي تتعامل يدويًا مع الأكاذيب كما يرونها، مما يردع الروبوتات عن إعطاء تلك الإجابات في المستقبل. ومع ذلك، سيكون من الصعب توسيع نطاق هذا مع مقدار المحتوى الناتج عن الذكاء الاصطناعي.
تتبع Google نهجًا مختلفًا من خلال روبوت الدردشة ، والذي يستمد من مجموعة بيانات ضخمة من الأسئلة والإجابات الحقيقية من المرضى ومقدمي الخدمات، بالإضافة إلى اختبارات الترخيص الطبي المخزنة في قواعد بيانات مختلفة. عندما اختبر الباحثون Google على «محاور» مختلفة، بما في ذلك التوافق مع الإجماع الطبي والاكتمال واحتمال الضرر، في دراسة مسبقة، تتماشى إجاباتها مع الإجماع الطبي والعلمي 92.6 في المائة. سجل الأطباء البشريون 92.9 في المائة بشكل عام. كانت إجابات Chatbot أكثر عرضة لفقدان المحتوى من الإجابات البشرية، لكن الإجابات كانت أقل عرضة للإضرار بالصحة الجسدية أو العقلية للمستخدمين.
المصدر: نفطة المجتمع العلمي العربي