menu button
سبد خرید شما
آیا هوش مصنوعی می‌تواند به سلامت روان انسان‌ها کمک کند؟
آلا نواح  |  1404/04/08  | 

آیا هوش مصنوعی می‌تواند به سلامت روان انسان‌ها کمک کند؟


در سال‌های اخیر، شرکت‌های تجاری برنامه‌های مختلفی را به‌منظور ارائه‌ی مراقبت‌های بهداشتی و درمانی به بازارها عرضه کرده‌اند. آن‌ها بر این باورند که این برنامه‌ها می‌توانند در تشخیص و درمان بسیاری از اختلالات روانی به افراد کمک کنند و یا نوعی جایگزین برای درمان این اختلالات باشند. اما پرسش اساسی اینجاست که با وجود کمبود نیروی درمانگر در حوزه‌ی سلامت روان، آیا هوش مصنوعی می‌تواند این شکاف را پر کند؟ دکتر «جودی هالپرن»، استاد دانشگاه برکلی کالیفرنیا اخیرا بر روی گسترش استفاده از هوش مصنوعی بر سلامت روان تمرکز کرده است. ما از وی خواستیم تا مزایا و معایب استفاده از هوش مصنوعی را برای ارائه‌ی مراقبت‌های بهداشتی و روانی برای ما توضیح دهد.


  • هوش مصنوعی چگونه می تواند به فردی که از یک کمای ۲۰ ساله خارج شده است کمک کند؟

هوش مصنوعی برای کمک به این فرد از مدل‌های تحلیلی و دیگر مدل‌های مرتبط برای ایجاد برنامه‌های تشخیص الگو استفاده می کند.این مدل‌ها جدید هستند اما می‌توانند رفتارهایی که در ذهن انسان ها وجود دارند را شبیه‌سازی کنند.هوش مصنوعی نمی تواند فرآیند استدلال را همانطور که در ذهن انسان رخ می دهد انجام دهد،اما می تواند آن را شبیه‌سازی کند.

 

  • چرا این‌قدر در مورد استفاده از هوش مصنوعی در حوزه‌ی سلامت روان هیجان و نگرانی وجود دارد؟

هیجان تا حدی به این دلیل است که ما با بحران سلامت روان درگیر هستیم. بررسی‌ها نشان می‌دهند که فقط 26% از آمریکایی‌ها از سلامت روانی کافی برخوردارند. اما در کنار این مسئله، بحران تنهایی شدید وجود دارد. بیش از 50% نوجوانان و زنان آمریکایی از تنهایی رنج می‌برند و به نظر می‌رسد که نیازهای مربوط به سلامت روان آن‌ها برآورده نشده است. پس هر فناوری که باعث دستیابی به سلامت روان شود، باید به‌عنوان یک مزیت بالقوه جدی گرفته شود.


  • آیا شما نگرانی‌هایی در زمینه‌ی نوع استفاده از هوش مصنوعی دارید؟

بله. معلوم نیست که فناوری‌های مربوط به هوش مصنوعی برای افراد دارای اختلالات روانی چقدر گسترده هستند. همچنین درباره‌ی ربات‌هایی که برای درمان افراد افسرده یا آسیب‌پذیر مورداستفاده قرار می‌گیرند نیز نگرانی‌هایی وجود دارد. در مقابل، کاربردهای بسیار متفاوتی در زمینه‌ی هوش مصنوعی در حوزه‌ی سلامت روان تعریف شده است؛ مانند اپلیکیشن‌های مربوط به ذهن‌آگاهی و درمان شناختی رفتاری.


  • نظرتان در مورد ثبت سوابق بیماران با استفاده از هوش مصنوعی چیست؟

ما با یک بحران فرسودگی شغلی عظیم در پزشکی روبه‌رو هستیم و 61% از پزشکان و پرستاران می‌گویند که دچار خستگی شغلی هستند. آن‌ها با وجود خستگی نمی‌توانند به میزان کافی برای بیماران زمان بگذارند و با دلسوزی و دقت آنان را درمان کنند. اخیرا در بریتانیا و ایالات متحده‌ی آمریکا سیستم‌هایی مبتنی بر هوش مصنوعی راه‌اندازی شده‌اند که سوابق پزشکی بیماران را به‌صورت اتوماتیک ثبت و ذخیره کرده و این‌گونه به کادر درمان کمک می‌کنند.


  • چه چیزی در مورد هوش مصنوعی امیدوار‌کننده به نظر می‌رسد؟

گاهی اوقات در جریان معاینه‌ی بیمار ممکن است برخی از اطلاعات مهم و حیاتی از قلم بیفتند. این مسئله در مواردی که درمان مربوط به اختلالات روانی بوده و نیاز به کنترل آن موارد باشد، مانند افسردگی شدید و میل به خودکشی، اهمیت بیشتری پیدا می‌کند. در حال حاضر، در سیستم درمانی بریتانیا و نیز ایالات متحده برنامه‌ای شنیداری مبتنی بر هوش مصنوعی راه‌اندازی شده و وقتی پزشک مشغول معاینه‌ی بیمار است، صدای هر دوی آن‌ها را ضبط می‌کند. در نتیجه تمام اطلاعات به طور کامل ثبت می‌شوند و از بروز برخی مشکلات احتمالی که ممکن است برای بیمار رخ دهد، جلوگیری می‌شود.




  • وقتی صحبت از هوش مصنوعی برای مراقبت‌های بهداشتی به میان می‌آید، بیشتر چه چیزی شما را ناراحت یا نگران می‌کند؟

بزرگ‌ترین نگرانی من این است که ربات‌های سلامت روان را جایگزین انسان‌ها کنیم؛ چون در این صورت ما به یک انسان دسترسی نداریم، بلکه سروکارمان با رباتی درمانگر خواهد بود. نوعی درمان تحت عنوان «درمان شناختی رفتاری» (CBT)وجود دارد که افراد می‌توانند آن را با استفاده از یک قلم و کاغذ انجام دهند و در 30 سال گذشته نیز بسیاری به این نوع درمان روی آورده‌اند و می‌توان از هوش مصنوعی نیز برای انجام آن استفاده کرد. به این صورت که شما می‌توانید رفتارهای آزار‌دهنده‌ی خود را در برنامه‌ای کاربردی یادداشت کرده و سپس به آن‌ها فکر کنید و نهایتا به خودتان انگیزه بدهید تا بتوانید آن‌ها را تغییر دهید.

اما برخی درمان‌های روانی وجود دارند که مبتنی بر ایجاد روابط عاطفی آسیب‌پذیر با یک درمانگر هستند و من بسیار نگرانم که یک ربات هوش مصنوعی بخواهد جایگزین انسان در این نوع درمان بشود. من به‌ویژه نگران به‌کارگیری ربات‌های ساخته‌شده توسط هوش مصنوعی هستم که این نوع آسیب‌پذیری را با گفتن جملاتی مانند «ربات هوش مصنوعی با شما همدلی می‌کند» یا «ربات هوش مصنوعی همراه مورداعتماد شماست» افزایش می‌دهند. این مورد می‌تواند یک رابطه‌ی آسیب‌پذیر از وابستگی عاطفی انسان به ربات را ترویج کند.


  • دلیل این نگرانی شما چیست؟

اولا روان‌درمانگران افرادی حرفه‌ای هستند که مجوز دارند و می‌دانند که اگر از آسیب‌پذیری اشخاص سوءاستفاده کنند، ممکن است مجوز فعالیت خود را از دست بدهند. اما در مورد هوش مصنوعی وضعیت فرق می‌کند. در ثانی، همه‌ی افراد تجربه‌ی ناراحتی را دارند. این تجربه نوعی احساس مسئولیت را در نحوه‌ی برخورد آن‌ها با دیگران ایجاد می‌کند.

شرکت‌هایی که هوش مصنوعی را برای سلامت روان به بازار عرضه می‌کنند و از عبارات احساسی مانند «همدلی» یا «همراه مورداعتماد» استفاده می‌کنند، افراد آسیب‌پذیر را به دلیل داشتن مشکلات سلامت روان درگیر می‌کنند. در حال حاضر برنامه‌های کاربردی مربوط به سلامت روان به‌سرعت درحال‌توسعه هستند و تاکنون شرکت‌های تجاری تولید‌کننده‌ی این برنامه‌ها در مورد برخی چالش‌های ایجاد‌شده برای بیماران پاسخگو نیستند. این یک سوال را ایجاد می‌کند که چگونه می‌توان بر این برنامه‌ها نظارت کرد و جلوی مشکلات احتمالی را گرفت؟


  • آیا شما تابه‌حال شنیده‌اید که ربات‌های روان‌درمانگر تا‌کنون برای بیماران مشکلات جدی ایجاد کنند؟

بله. این مشکلات معمولا در سه دسته قرار می‌گیرند: دسته‌ی اول افرادی که از ناراحتی‌های روانی رنج می‌برند، در نتیجه‌ی ارتباط با این ربات‌ها آسیب‌پذیرتر می‌شوند و زمانی که به افکاری مانند خودکشی می‌اندیشند، چون ربات‌ها نمی‌توانند به آن‌ها کمک‌های حرفه‌ای ارائه دهند، این افراد با چالش مواجه می‌شوند و مشخص نیست که چه تعداد از آن‌ها در چنین شرایطی دست به خودکشی می‌زنند.

دسته‌ی دوم طبق گزارش‌ها به استفاده از این ربات‌ها اعتیاد پیدا می‌کنند، تاحدی‌که از تعامل با دیگر انسان‌ها در زندگی خود می‌پرهیزند. برخی از شرکت‌ها که ربات‌های درمانگر را تولید می‌کنند، از همان تکنیک‌هایی استفاده می‌کنند که باعث ایجاد اعتیاد به استفاده از شبکه‌های اجتماعی در افراد شده‌اند و در دراز‌مدت می‌توانند روی زندگی افراد تاثیر منفی بگذارند.

برای دسته‌ی سوم باید این مورد را مطرح کرد که نوعی از این ربات‌ها وجود دارند که رفتارهای پرخطر را ترویج کرده و افراد را به آسیب رساندن به خود یا دیگران تشویق می‌کنند. مثلا در بلژیک یک ربات از مردی خواست که خودکشی کند و همسرش اکنون از شرکت سازنده‌ی این ربات شکایت کرده است!


  • آیا شما نگران ورود اپلیکیشن‌های سلامت روان و هوش مصنوعی به مدارس هم هستید؟

بله؛ چون برخی از شرکت‌ها این برنامه‌ها را به‌صورت رایگان به مدارس ابتدایی ارائه می‌دهند. در حال حاضر کودکان و نوجوانان بین 8 تا 10 ساعت در شبکه‌های اجتماعی آنلاین هستند و این مسئله یک بحران بزرگ است. چون نوجوانان در سن بلوغ اضطراب بالایی دارند، معمولا برقراری ارتباط با ربات‌ها را به تلاش برای غلبه بر اضطراب خود و نیز ارتباط با دیگران ترجیح می‌دهند. به نظر من استفاده از این ربات‌ها در مدارس می‌تواند باعث بروز مشکلات ساختاری و ا‌زبین‌رفتن فرصت‌ها برای برقراری تعامل کودکان و نوجوانان با دیگران باشد.


نویسنده : شیلا کاپلان

مترجم : آلاء نواح

آخرین مطالب


مشاهده ی همه

معرفی محصول از سایت موفقیت


مشاهده ی همه

دیدگاهتان را بنویسید

footer background