الذكاء الاصطناعي الصحي يفتح باب الاستشارات الطبية
\n
تشهد منصات الدردشة المدعومة بالذكاء الاصطناعي إقبالاً عالمياً على تقديم استشارات صحية فورية، مع سعي شركات التكنولوجيا إلى تحويل هذه المنصات إلى مساعدين صحيين رقميين قادرين على تحليل السجلات الطبية والبيانات الحيوية المعقدة. في إطار ذلك أطلقت OpenAI مطلع يناير إصداراً تخصصياً باسم ChatGPT Health يتيح تحليل السجلات الطبية وبيانات تطبيقات اللياقة والأجهزة القابلة للارتداء، وهو حتى الآن متاح عبر قائمة انتظار لضمان الاستقرار الفني قبل التعميم.
\n
وفي المقابل دخلت Anthropic المنافسة عبر تطوير مزايا صحية مشابهة ضمن روبوتها Claude، ما يعكس سعي الشركات للسيطرة على تقنيات الصحة الذكية. وعلى الرغم من التوسع، تؤكد الشركات أن هذه النماذج ليست بديلاً عن الطبيب ولا تمتلك صلاحية التشخيص؛ دورها يقتصر على تلخيص النتائج وتحليل الاتجاهات الصحية ومساعدة المستخدمين في التحضير لزيارة الطبيب.
\n
أبعاد السلامة والخصوصية
\n
ويرافق ذلك نقاش مستمر حول دقة الأداء والحدود المهنية والقانونية، إضافة إلى مستوى حماية بيانات المستخدمين. فهذه الأنظمة قد تكون دقيقة حين تُطرح سيناريوهات مكتوبة بشكل كامل، لكنها تواجه صعوبات عندما يتعامل معها مستخدمون حقيقيون لا يوفرون كل التفاصيل اللازمة. يشدد خبراء على أن الاستفادة الأكبر من هذه الأدوات تكون كمصدر معلومات مساند أو رأي ثانٍ، وربما مقارنات بين الإجابات عبر منصات مختلفة مثل Gemini، مع التأكيد أن القرار الطبي النهائي يجب أن يظل في يد المختصين.
\n
من ناحية الخصوصية، تمثل حماية البيانات الصحية محور قلق رئيسي، إذ إن البيانات التي يرفعها المستخدمون لا تكون محمية دائماً بموجب قانون HIPAA الأميركي الخاص بسجلات الصحة. وتوضح الشركات المطورة أن البيانات تُخزن بشكل منفصل ولا تُستخدم في تدريب النماذج دون موافقة المستخدم، مع حقه في سحب الإذن متى شاء. وتؤكد الشركات أن الهدف هو الحد من المخاطر التنظيمية والخصوصية مع إبقاء المستخدم مطلعاً على أسلوب التخزين والاستخدام.
\n
على الأرض العملية، يظل الاستخدام الأمثل لهذه الخدمات مرتبطاً بمساندة معلوماتية وتوثيق إضافي وليس كبديل عن الاستشارة الطبية. وتؤكد الجهات الصحية والتقنية أن القرار النهائي بشأن الرعاية يجب أن يكون بيد الطبيب المختص، مع مواصلة مراقبة التطورات التنظيمية وتقييم أثرها على ممارسات الرعاية الصحية.


