تُحدث أدوات الذكاء الاصطناعي ثورة في التواصل مع المرضى في قطاع الرعاية الصحية

[ad_1]

لا تتفاجأ إذا بدأ أطبائك في كتابة رسائل ودية للغاية لك. من الممكن أن يحصلوا على بعض المساعدة من الذكاء الاصطناعي (AI).

تساعد أدوات الذكاء الاصطناعي الجديدة الأطباء على التواصل مع مرضاهم، البعض عن طريق الرد على الرسائل والبعض الآخر عن طريق تدوين الملاحظات أثناء الاختبارات. لقد مر 15 شهرًا منذ أن أصدرت OpenAI ChatGPT. يستخدم آلاف الأطباء بالفعل منتجات مماثلة تعتمد على نماذج لغوية كبيرة. وتقول إحدى الشركات إن أداتها تعمل بـ 14 لغة.

يقول المتحمسون إن الذكاء الاصطناعي يوفر وقت الأطباء ويمنع الإرهاق. كما أنه يهز العلاقة بين الطبيب والمريض، ويثير تساؤلات حول الثقة والشفافية والخصوصية ومستقبل التواصل البشري.

كيف تؤثر أدوات الذكاء الاصطناعي على المرضى؟

في السنوات الأخيرة، قامت الأجهزة الطبية المزودة بالتعلم الآلي بأشياء مثل قراءة صور الثدي بالأشعة السينية وتشخيص أمراض العيون والكشف عن مشاكل القلب. الجديد هو قدرة الذكاء الاصطناعي التوليدي على الاستجابة للتعليمات المعقدة من خلال التنبؤ باللغة.

يمكن لتطبيق الهاتف الذكي الذي يعمل بالذكاء الاصطناعي تسجيل فحصك التالي. يستمع التطبيق ويوثق وينظم كل شيء على الفور في ملاحظة يمكنك قراءتها لاحقًا. يمكن أن تعني الأداة أيضًا المزيد من المال لصاحب عمل الطبيب لأنها لن تنسى التفاصيل التي يمكن أن تتم محاسبتها بشكل قانوني على التأمين.

يجب أن يطلب طبيبك موافقتك قبل استخدام الأداة. قد ترى أيضًا بعض الصياغة الجديدة في النماذج التي توقعها في عيادة الطبيب.

قد تساعد أدوات الذكاء الاصطناعي الأخرى طبيبك في صياغة رسالة، لكنك قد لا تعرف ذلك أبدًا.

وقالت كيت ديروش، مديرة OpenNotes، وهي مجموعة مقرها بوسطن تعمل من أجل التواصل الشفاف بين الأطباء والمرضى: “قد يخبرك طبيبك بأنه يستخدمه، أو قد لا يخبرك”. تشجع بعض الأنظمة الصحية الكشف عن المعلومات، والبعض الآخر لا يفعل ذلك.

يجب أن يوافق الأطباء أو الممرضون على الرسائل التي ينشئها الذكاء الاصطناعي قبل إرسالها. في أحد الأنظمة الصحية في كولورادو، تحتوي مثل هذه الرسائل على جملة تكشف أنها تم إنشاؤها تلقائيًا، ولكن يمكن للأطباء حذف هذا السطر.

قال المريض توم ديتنر، 70 عامًا، من دنفر، الذي تلقى مؤخرًا رسالة أنشأها الذكاء الاصطناعي تبدأ: “بدا مثله تمامًا. كان رائعًا”. “مرحبًا، توم، أنا سعيد لسماع أن آلام رقبتك تتحسن”. . من المهم الاستماع إلى جسدك.” وانتهت الرسالة بعبارة “اعتني” والكشف عن أن طبيبه قام بإنشائها وتحريرها تلقائيًا.

وقال ديتنر إنه سعيد بالشفافية. وقال “الكشف الكامل مهم للغاية”.

هل سيرتكب الذكاء الاصطناعي الأخطاء؟

يمكن لنماذج اللغة الكبيرة أن تسيء تفسير المدخلات أو حتى اختلاق استجابات غير دقيقة، وهو تأثير يسمى الهلوسة. تحتوي الأدوات الجديدة على حواجز حماية داخلية لمنع وصول الأخطاء إلى المرضى – أو الوقوع في السجلات الصحية الإلكترونية.

قال الدكتور أليستير إرسكين، الذي يقود الابتكارات الرقمية في شركة إيموري للرعاية الصحية ومقرها جورجيا، حيث يستخدم مئات الأطباء منتجًا من شركة أبريدج لتوثيق زيارات المرضى: “أنت لا تريد أن تدخل هذه الأشياء المزيفة إلى الملاحظات السريرية”.

وقال إرسكين إن الأداة تدير محادثة بين الطبيب والمريض عبر عدة نماذج لغوية كبيرة وتزيل الأفكار الغريبة. “إنها طريقة للتخلص من الهلوسة.”

وفي نهاية المطاف، قال الدكتور شيف راو، الرئيس التنفيذي لشركة Abridge، “إن الطبيب هو أهم حاجز حماية”. وبينما يقوم الأطباء بمراجعة الملاحظات التي تم إنشاؤها بواسطة الذكاء الاصطناعي، يمكنهم النقر على أي كلمة والاستماع إلى الجزء المحدد من زيارة المريض للتحقق من الدقة.

في بوفالو، نيويورك، أخطأت أداة مختلفة للذكاء الاصطناعي في فهم الدكتورة لورين بروكنر عندما أخبرت مريضة بالسرطان في سن المراهقة أنه من الجيد أنها لا تعاني من حساسية تجاه أدوية السلفا. وجاء في المذكرة التي أنشأها الذكاء الاصطناعي: “الحساسية: السلفا”.

وقال بروكنر إن الأداة “أساءت فهم المحادثة تمامًا”. “هذا لا يحدث في كثير من الأحيان، ولكن هذه مشكلة.”


يؤدي دمج الذكاء الاصطناعي في الرعاية الصحية إلى إحداث تحول في رعاية المرضى، ولكنه يثير أسئلة حول الخصوصية واللمسة الإنسانية.  (صورة شترستوك)
يؤدي دمج الذكاء الاصطناعي في الرعاية الصحية إلى إحداث تحول في رعاية المرضى، ولكنه يثير أسئلة حول الخصوصية واللمسة الإنسانية. (صورة شترستوك)

ماذا عن اللمسة الإنسانية؟

يمكن مطالبة أدوات الذكاء الاصطناعي بأن تكون ودية ومتعاطفة وغنية بالمعلومات.

لكن يمكن أن يبتعدوا. في كولورادو، انزعج مريض يعاني من سيلان الأنف عندما علم من رسالة أنشأها الذكاء الاصطناعي أن المشكلة قد تكون تسرب سائل في الدماغ. (لم يكن الأمر كذلك). لم تقم الممرضة بمراجعة الرسالة بعناية وأرسلت الرسالة عن طريق الخطأ.

وقال الدكتور سي تي لين، الذي يقود الابتكارات التكنولوجية في جامعة كاليفورنيا للصحة ومقرها كولورادو: “في بعض الأحيان، تكون هذه مساعدة مذهلة، وفي أحيان أخرى، لا تكون ذات فائدة على الإطلاق”. هناك، يستخدم حوالي 250 طبيبًا وموظفًا أداة Microsoft AI لكتابة المسودة الأولى من الرسائل للمرضى، والتي يتم تسليمها من خلال بوابة المرضى الخاصة بـ Epic.

وكان لا بد من تعليم الأداة عن لقاح جديد للفيروس المخلوي التنفسي لأنها صاغت رسائل تقول إنه لا يوجد شيء من هذا القبيل. ولكن مع النصائح الروتينية – مثل الراحة، والثلج، والضغط، والرفع في حالة التواء الكاحل – “إنه أمر جميل لذلك”، كما قال لين.

ومن الجانب الإيجابي أيضًا، لم يعد الأطباء الذين يستخدمون الذكاء الاصطناعي مرتبطين بأجهزة الكمبيوتر الخاصة بهم أثناء المواعيد الطبية. يمكنهم التواصل بالعين مع مرضاهم لأن أداة الذكاء الاصطناعي تسجل الاختبار.

وقال الدكتور روبرت بارت، كبير مسؤولي المعلومات الطبية في UPMC ومقرها بيتسبرغ، إن الأداة تحتاج إلى كلمات مسموعة، لذلك يتعلم الأطباء شرح الأشياء بصوت عالٍ. على سبيل المثال، قد يقول الطبيب: “أقوم حاليًا بفحص المرفق الأيمن. إنه منتفخ تمامًا. أشعر وكأن هناك سائلًا في المرفق الأيمن”.

وقال بارت إن التحدث خلال الاختبار لصالح أداة الذكاء الاصطناعي يمكن أن يساعد المرضى أيضًا على فهم ما يحدث. “لقد خضعت لفحص حيث تسمع أصوات الحشيات والعواء أثناء قيام الطبيب بذلك. وأنا أتساءل دائمًا: “حسنًا، ماذا يعني ذلك؟”

ماذا عن الخصوصية؟

يتطلب قانون الولايات المتحدة من أنظمة الرعاية الصحية الحصول على ضمانات من شركاء العمل بأنهم سيحميون المعلومات الصحية المحمية. إذا فشلوا في القيام بذلك، يمكن لوزارة الصحة والخدمات الإنسانية التحقيق معهم وفرض غرامات عليهم.

قال الأطباء الذين تمت مقابلتهم في هذا المقال إنهم يشعرون بالثقة في أمان بيانات المنتجات الجديدة وأن المعلومات لن يتم بيعها.

يتم استخدام المعلومات التي تتم مشاركتها مع الأدوات الجديدة لتحسينها، مما قد يزيد من خطر اختراق بيانات الرعاية الصحية.

الدكتور لانس أوينز هو كبير مسؤولي المعلومات الطبية في جامعة ميشيغان هيلث ويست، حيث يستخدم 265 طبيبًا ومساعد طبيب وممرضًا ممارسًا أداة Microsoft لتوثيق فحوصات المرضى. ويعتقد أن بيانات المرضى محمية.

وقال أوينز: “عندما يخبروننا أن بياناتنا آمنة ومنفصلة، ​​فإننا نصدق ذلك”.

[ad_2]

en_USEnglish