لا تتفاجأ إذا بدأ أطبائك في كتابة رسائل ودية للغاية لك. من الممكن أن يحصلوا على بعض المساعدة من الذكاء الاصطناعي.

تساعد أدوات الذكاء الاصطناعي الجديدة الأطباء على التواصل مع مرضاهم، البعض عن طريق الرد على الرسائل والبعض الآخر عن طريق تدوين الملاحظات أثناء الاختبارات. لقد مر 15 شهرًا منذ أن أصدرت OpenAI ChatGPT. يستخدم آلاف الأطباء بالفعل منتجات مماثلة تعتمد على نماذج لغوية كبيرة. وتقول إحدى الشركات إن أداتها تعمل بـ 14 لغة.

يقول المتحمسون إن الذكاء الاصطناعي يوفر وقت الأطباء ويمنع الإرهاق. كما أنه يهز العلاقة بين الطبيب والمريض، ويثير تساؤلات حول الثقة والشفافية والخصوصية ومستقبل التواصل البشري.

نظرة على كيفية تأثير أدوات الذكاء الاصطناعي الجديدة على المرضى:

هل يستخدم طبيبي الذكاء الاصطناعي؟

في السنوات الأخيرة، قامت الأجهزة الطبية المزودة بالتعلم الآلي بأشياء مثل قراءة صور الثدي بالأشعة السينية وتشخيص أمراض العيون والكشف عن مشاكل القلب. الجديد هو قدرة الذكاء الاصطناعي التوليدي على الاستجابة للتعليمات المعقدة من خلال لغة التنبؤ.

يمكن تسجيل فحصك التالي من خلال تطبيق هاتف ذكي مدعوم بالذكاء الاصطناعي، والذي يستمع ويوثق وينظم كل شيء على الفور في ملاحظة يمكنك قراءتها لاحقًا. يمكن أن تعني الأداة أيضًا المزيد من المال لصاحب عمل الطبيب لأنها لن تنسى التفاصيل التي يمكن أن تتم محاسبتها بشكل قانوني على التأمين.

يجب أن يطلب طبيبك موافقتك قبل استخدام الأداة. قد ترى أيضًا بعض الصياغة الجديدة في النماذج التي توقعها في عيادة الطبيب.

قد تساعد أدوات الذكاء الاصطناعي الأخرى طبيبك في صياغة رسالة، لكنك قد لا تعرف ذلك أبدًا.

تقول كايت ديروش، مديرة OpenNotes، وهي مجموعة مقرها بوسطن تعمل من أجل التواصل الشفاف بين الأطباء والمرضى: “قد يخبرك طبيبك بأنه يستخدمه، أو قد لا يخبرك بذلك”. تشجع بعض الأنظمة الصحية الكشف عن المعلومات، والبعض الآخر لا يفعل ذلك.

يجب أن يوافق الأطباء أو الممرضون على الرسائل التي ينشئها الذكاء الاصطناعي قبل إرسالها. في أحد الأنظمة الصحية في ولاية كولورادو، تحتوي مثل هذه الرسائل على جملة توضح أنها تم إنشاؤها تلقائيًا. لكن يمكن للأطباء حذف هذا السطر.

“بدا مثله تمامًا. قال المريض توم ديتنر، 70 عامًا، من دنفر، والذي تلقى مؤخرًا رسالة من الذكاء الاصطناعي بدأت: “مرحبًا توم، أنا سعيد لسماع أن آلام رقبتك تتحسن. كان الأمر رائعًا”. من المهم الاستماع إلى جسدك.” وانتهت الرسالة بعبارة “اعتني” والكشف عن أن طبيبه قد أنشأها وحررها تلقائيًا.

وقال ديتنر إنه سعيد بالشفافية. وأضاف: “الكشف الكامل مهم للغاية”.

هل سترتكب الذكاء الاصطناعي أخطاء؟

يمكن لنماذج اللغة الكبيرة أن تسيء تفسير المدخلات أو حتى اختلاق استجابات غير دقيقة، وهو تأثير يسمى هلوسة. تحتوي الأدوات الجديدة على حواجز حماية داخلية لمحاولة منع وصول الأخطاء إلى المرضى – أو الهبوط في السجلات الصحية الإلكترونية.

قال الدكتور أليستر إرسكين، الذي يقود الابتكارات الرقمية في شركة إيموري للرعاية الصحية ومقرها جورجيا، حيث يستخدم مئات الأطباء منتجًا من شركة أبريدج لتوثيق زيارات المرضى: “أنت لا تريد أن تدخل هذه الأشياء المزيفة إلى الملاحظات السريرية”.

وقال إرسكين إن الأداة تدير محادثة بين الطبيب والمريض عبر عدة نماذج لغوية كبيرة وتزيل الأفكار الغريبة. “إنها طريقة للتخلص من الهلوسة.”

وفي نهاية المطاف، قال الدكتور شيف راو، الرئيس التنفيذي لشركة Abridge، إن “الطبيب هو أهم حاجز حماية”. وبينما يقوم الأطباء بمراجعة الملاحظات التي تم إنشاؤها بواسطة الذكاء الاصطناعي، يمكنهم النقر على أي كلمة والاستماع إلى الجزء المحدد من زيارة المريض للتحقق من الدقة.

في بوفالو، نيويورك، أخطأت أداة مختلفة للذكاء الاصطناعي في فهم الدكتورة لورين بروكنر عندما أخبرت مريضة بالسرطان في سن المراهقة أنه من الجيد أنها لا تعاني من حساسية تجاه أدوية السلفا. وجاء في المذكرة التي أنشأها الذكاء الاصطناعي: “الحساسية: السلفا”.

وقال بروكنر، كبير مسؤولي المعلومات الطبية في مركز روزويل بارك الشامل للسرطان، إن الأداة “أساءت فهم المحادثة تمامًا”. “هذا لا يحدث في كثير من الأحيان، ولكن من الواضح أن هذه مشكلة.”

ماذا عن اللمسة الإنسانية؟

يمكن مطالبة أدوات الذكاء الاصطناعي بأن تكون ودية ومتعاطفة وغنية بالمعلومات.

لكن يمكن أن يبتعدوا. في كولورادو، انزعج مريض يعاني من سيلان الأنف عندما علم من رسالة أنشأها الذكاء الاصطناعي أن المشكلة قد تكون تسرب سائل في الدماغ. (لم يكن الأمر كذلك). لم تقم الممرضة بمراجعة الرسالة بعناية وأرسلت الرسالة عن طريق الخطأ.

وقال الدكتور سي تي لين، الذي يقود الابتكارات التكنولوجية في جامعة كاليفورنيا في كولورادو، حيث يستخدم حوالي 250 طبيبًا وموظفًا أداة مايكروسوفت للذكاء الاصطناعي لكتابة التقرير: “في بعض الأحيان، تكون هذه مساعدة مذهلة وفي أحيان أخرى لا تكون ذات فائدة على الإطلاق”. المسودة الأولى للرسائل للمرضى. يتم تسليم الرسائل من خلال بوابة المرضى الخاصة بشركة Epic.

كان لا بد من تعليم الأداة عن لقاح جديد للفيروس المخلوي التنفسي لأنها كانت تصوغ رسائل تقول إنه لا يوجد شيء من هذا القبيل. ولكن مع النصائح الروتينية – مثل الراحة، والثلج، والضغط، والرفع في حالة التواء الكاحل – “فإنه أمر جميل لذلك”، كما قال لين.

ومن الجانب الإيجابي أيضًا، لم يعد الأطباء الذين يستخدمون الذكاء الاصطناعي مرتبطين بأجهزة الكمبيوتر الخاصة بهم أثناء المواعيد الطبية. يمكنهم التواصل بالعين مع مرضاهم لأن أداة الذكاء الاصطناعي تسجل الاختبار.

وقال الدكتور روبرت بارت، كبير مسؤولي المعلومات الطبية في UPMC ومقرها بيتسبرغ، إن الأداة تحتاج إلى كلمات مسموعة، لذلك يتعلم الأطباء شرح الأشياء بصوت عالٍ. قد يقول الطبيب: «أنا حاليًا أفحص المرفق الأيمن. انها منتفخة تماما. يبدو الأمر وكأن هناك سائلًا في المرفق الأيمن.

وقال بارت إن التحدث خلال الاختبار لصالح أداة الذكاء الاصطناعي يمكن أن يساعد المرضى أيضًا على فهم ما يحدث. “لقد كنت في فحص حيث تسمع الهمهمة والتزوير أثناء قيام الطبيب بذلك. وأنا أتساءل دائمًا: حسنًا، ماذا يعني ذلك؟

ماذا عن الخصوصية؟

يتطلب قانون الولايات المتحدة من أنظمة الرعاية الصحية الحصول على ضمانات من شركاء العمل بأنهم سيحميون المعلومات الصحية المحمية، وهو ما قد تواجهه الشركات التحقيق والغرامات من وزارة الصحة والخدمات الإنسانية إذا أخطأوا.

قال الأطباء الذين تمت مقابلتهم في هذا المقال إنهم يشعرون بالثقة في أمان بيانات المنتجات الجديدة وأن المعلومات لن يتم بيعها.

يتم استخدام المعلومات التي تتم مشاركتها مع الأدوات الجديدة لتحسينها، مما قد يزيد من خطر اختراق بيانات الرعاية الصحية.

الدكتور لانس أوينز هو كبير مسؤولي المعلومات الطبية في جامعة ميشيغان هيلث ويست، حيث يستخدم 265 طبيبًا ومساعد طبيب وممرضًا ممارسًا أداة Microsoft لتوثيق فحوصات المرضى. ويعتقد أن بيانات المرضى محمية.

وقال أوينز: “عندما يخبروننا أن بياناتنا آمنة ومنفصلة، ​​فإننا نصدق ذلك”.

___

يتلقى قسم الصحة والعلوم في وكالة أسوشيتد برس الدعم من مجموعة الإعلام العلمي والتعليمي التابعة لمعهد هوارد هيوز الطبي. AP هي المسؤولة الوحيدة عن جميع المحتويات.

شاركها.