مشاوره با این روان شناس مصنوعی خطرناکست حاضر همیشه غایب!

مشاوره با این روان شناس مصنوعی خطرناکست حاضر همیشه غایب! به گزارش دیجیتالر، در دهه ای که هوش مصنوعی به یکی از زیرساخت های بنیادین زندگی دیجیتال تبدیل گشته، ورود چت بات ها و اپلیکیشن های سلامت روان به عرصه مشاوره روانی، پدیده ای گریزناپذیر اما پرمناقشه است.


به گزارش دیجیتالر به نقل از مهر؛ این تحول فقط یک تغییر تکنولوژیک ساده نیست، بلکه نشانه دگرگونی عمیق در الگوهای ارتباطی، شیوه جست وجوی کمک، اعتماد به منابع دانشی و حتی درک ما از مفهوم «رابطه درمانی» بحساب می آید. میلیونها نفر در سرتاسر جهان، بخصوص در جوامعی که با کمبود متخصصان سلامت روان، هزینه های سرسام آور خدمات درمانی، تبعیض جغرافیایی و فشارهای اجتماعی در رفتن به روانشناس رو به رو هستند، این ابزارها را به عنوان مسیر جایگزین برگزیده اند؛ ابزاری که همیشه در دسترس می باشد، هزینه ای ندارد و بیمار را قضاوت نمی نماید. از طرف دیگر، کارشناسان تأکید می کنند که جذابیت هوش مصنوعی در این زمینه با واقعیت علمی آن فاصله دارد. گزارش تازه انجمن روان شناسی آمریکا (APA) نشان داده است که اغلب چت بات ها و اپلیکیشن های فعلی نه فقط برای عرضه خدمات روان درمانی طراحی نشده اند، بلکه در بسیاری موارد فاقد شواهد علمی معتبر، نظارت تخصصی، پروتکلهای ایمنی و حتی در موقعیت های حساس، خطرناک هستند. این شکاف میان برداشت عمومی از توانایی هوش مصنوعی و واقعیت تجربی و علمی امروز به یکی از اصلی ترین دغدغه های متخصصان و سیاست گذاران تبدیل گشته است. این نوشتار کوتاه با تاکید بر داده ها و استدلال های عرضه شده در گزارش انجمن روان شناسی آمریکا، تلاش می کند تصویری جامع، دقیق و مبتنی بر شواهد از فرصت ها، محدودیت ها، تهدیدها و الزامات حکمرانی در استفاده از چت بات ها و ابزارهای هوش مصنوعی برای مشاوره روانی ترسیم کند؛ تصویری که نشان داده است چرا این فناوری، در کنار تمام ظرفیت هایش، نیازمند چارچوب های اخلاقی، نظارتی و آموزشی دقیق است تا جایگزین رابطه درمانی انسانی نشده و از مسیر حمایتی خود هم خارج نگردد.

جذابیت هوش مصنوعی برای کاربران؛ راهکار یا سراب؟

گسترش استفاده از چت بات ها برای روان درمانی در شرایطی اتفاق می افتد که سیستم سلامت روان در سطح جهانی با عدم تعادل ساختاری رو به رو است. کمبود متخصصان در مناطق کم برخوردار، افزایش انزوای اجتماعی، رشد افسردگی و اضطراب و ناتوانی سیستم سلامت بسیاری کشورها در تأمین هزینه درمان، سبب شده میلیونها کاربر به چت بات هایی مانند چت جی پی تی، «Character.AI» و ده ها اپلیکیشن دیگر روی بیاورند. در شرایطی که این ابزارها برای اهداف غیر درمانی طراحی شده اند، در عمل نقش همراه، مشاور یا حتی درمانگر را برای کاربران ایفا می کنند و مشکل از همین جا شروع می شود. هیچ یک از این فنآوری ها برای عرضه درمان بالینی ساخته نشده اند و در چهارچوب استانداردهای پزشکی هم مورد ارزیابی قرار نگرفته اند. انجمن روان شناسی آمریکا توضیح می دهد که جذابیت این ابزارها در چند عامل شامل حذف فشار اجتماعی، سهولت دسترسی، ناشناس بودن، ارزان بودن و امکان صحبت کردن بدون ترس از قضاوت ریشه دارد. این خاصیت ها بخصوص برای نوجوانان، زنان، ساکنان مناطق روستایی و افراد بدون دسترسی به درمان تخصصی جذاب است. اما مسئله اساسی اینجاست که هیچیک از چت بات های عمومی، حتی پیشرفته ترین آنها، توانایی های ضروری یک متخصص سلامت روان را ندارند. بعبارت دیگر، ابزار مذکور فاقد شناخت محدودیت علمی، توجه به سابقه بالینی فرد، تفسیر نشانه های غیرکلامی، ارزیابی خطر، شناخت بافت فرهنگی و درک پیچیدگی های روانی هستند. بنابراین، هرچند این ابزارها می توانند احساس همراهی ایجاد کنند، اما نمی توانند جایگزین ارزیابی و درمان متخصص شوند.

خطرات پنهان در پس تجربه کاربری شیرین

یکی از نتایج کلیدی انجمن روان شناسی آمریکا اینست که خیلی از چت بات ها گرفتار نوعی «تملق الگوریتمی» یا «sycophancy» هستند؛ یعنی برای جلب رضایت کاربر، احساسات یا باورهای او را تأیید می کنند. این رفتار، هرچند از منظر تجربه کاربری دلنشین است، اما از نظر روان شناختی می تواند بشدت صدمه زا باشد. تأیید خطاهای شناختی فرد، تشویق ناخواسته رفتارهای ناصحیح یا تقویت تفکر وسواسی، از دستاوردهای این الگوی تعاملی محسوب می شود. در بعضی موارد مستند، چت بات ها به کاربران دارای سابقه خودآزاری پیشنهادهای خطرناک داده یا ایده های روان پریشانه را در افراد تقویت کرده اند. گزارش انجمن روان شناسی آمریکا همین طور تاکید می کند که در مورد خردسالان و نوجوانان، این خطر چند برابر است. از طرف دیگر و برعکس تصور کاربران، گفت و گو با چت بات ها به هیچ عنوان خصوصی نیست. این ابزارها در بسیاری موارد داده های حساسی مانند افکار، نگرانی ها، تمایلات شخصی، سوابق صدمه و احساسات را جمع آوری کرده و در مدلهای خود به کار می گیرند. انجمن روان شناسی آمریکا هشدار می دهد که داده های در ارتباط با سلامت روان می تواند بسادگی تبدیل به پروفایل تجاری شود یا حتی مورد سوءاستفاده قرار گیرد. جدیدترین بررسی ها نشان داده است اغلب کاربران از نحوه ذخیره سازی، تحلیل و فروش داده های خود از جانب شرکتهای هوش مصنوعی اطلاعی ندارند. این امر بخصوص درباره ی نوجوانان که به صورت طبیعی احساس امنیت کاذب بیشتری در تعامل با فناوری دارند، خطرناکست. علاوه بر این، مدلهای زبانی عمدتا بر داده های غربی، انگلیسی زبان و اینترنتی آموزش دیده اند. این یعنی درک آنها از فرهنگ، روابط، هنجارها و سبک زندگی جهانی، بشدت محدود و سوگیرانه است. بنابراین، احتمال عرضه سفارش های ناصحیح یا صدمه زا برای گروههای قومی، زبانی یا فرهنگی بسیار زیاد است. از همین روی، انجمن روان شناسی آمریکا تاکید می کند که بدون شفافیت درباره ی داده های آموزشی، ارزیابی علمی این مدلها امکان ندارد.

توهم درمان: وقتی هوش مصنوعی ادعای درمانگری می کند

انجمن روان شناسی آمریکا در گزارش خود بارها تاکید می کند که بعضی از این ابزارها خودرا «درمانگر»، «مشاور» یا «متخصص سلامت روان» معرفی می کنند؛ بدون این که هیچ نوع اعتبار، مجوز یا پشتوانه علمی داشته باشند. این گمراه سازی می تواند سبب شود کاربران به سفارش های خطرناک اعتماد کرده و از رفتن به متخصص واقعی خودداری نمایند. در صورتیکه یک درمانگر واقعی مکلف به رعایت اخلاق، محرمانگی، گزارش خطر و استانداردهای حرفه ای است، چت بات ها هیچ کدام از این تعهدات را ندارند. همین طور بر مبنای نتایج عرضه شده، چت بات ها می توانند در کاربران رابطه ای شبه عاطفی ایجاد کنند. باآنکه این رابطه یک طرفه است، اما کاربر امکان دارد آنرا واقعی تصور کند. در چنین شرایطی، نوجوانان بطور دقیق تر در معرض وابستگی عاطفی به چت بات ها قرار دارند. این مساله خطر جایگزینی روابط انسانی با «دوستی هوش مصنوعی» را زیاد می کند. انجمن روان شناسی آمریکا هشدار می دهد که طراحی آواتارهای انسانی، لحن احساسی، تماسهای گرم و پاسخ های شخصی سازی شده، این خطر را تشدید می کند. در نهایت و در بحران های روانی مانند افکار خودکشی، حملات پانیک یا رفتارهای پرخطر، چت بات ها عملکردی غیرقابل پیش بینی دارند. این ابزارهای فناورانه نه می توانند سطح خطر را ارزیابی کنند، نه قادر هستند تماس اضطراری برقرار نمایند و نه می توانند مداخله فوری عرضه کنند. از همین روی، انجمن روان شناسی آمریکا صریحاً اعلام می کند که اتکا به این ابزارها در بحران، می تواند تهدیدکننده جان فرد باشد.

گروه های در معرض خطر: چه کسانی بیشتر صدمه می بینند؟

گزارش انجمن روان شناسی آمریکا توضیح می دهد که برخی گروه ها بیشتر از دیگران در معرض صدمه قرار می گیرند و این صدمه پذیری به علل روان شناختی، اجتماعی و محیطی قابل توضیح است. خردسالان و نوجوانان، به سبب رشد نیافتگی مهارت های تنظیم هیجان و ناتوانی در تشخیص مرز میان ارتباط انسانی و ماشینی، بیشتر تحت تاثیر فضای عاطفی مصنوعی چت بات ها قرار می گیرند. افراد دچار اضطراب یا وسواس هم امکان دارد به چرخه های تکراری پرسش و پاسخ با چت بات ها پناه ببرند؛ چرخه هایی که نه فقط مسئله اصلی را حل نمی کند، بلکه به تشدید نگرانی ها و وابستگی فکری منجر می شود. گروه دیگری از این افراد، کسانی هستند که با افکار یا باورهای هذیانی زندگی می کنند؛ این افراد امکان دارد جملات مبهم یا تأییدگر چت بات ها را به عنوان نشانه ای واقعی تعبیر کنند و وضعیت روانی شان وخیم تر شود. افزون بر این، افراد منزوی یا کم برخوردار که در نبود حمایت اجتماعی ناچار به تکیه بر این ابزارها هستند، در معرض تشکیل روابط عاطفی مصنوعی قرار می گیرند؛ روابطی که از بیرون بی خطر به نظر می رسند، اما در عمل می توانند فاصله فرد را از روابط انسانی واقعی بیشتر کنند. بالاخره، آنهایی که اساساً دسترسی به درمان تخصصی ندارند و تنها راه پیش روی آنها تعامل با چت بات هاست، بیشتر از سایرین در خطر گرفتار شدن در چرخه ای از وابستگی، تشدید نشانه ها و تأخیر در دریافت کمک واقعی قرار دارند و دستاوردهای این چرخه امکان دارد ماه ها یا حتی سال ها ادامه پیدا کند. انجمن روان شناسی آمریکا در گزارش خود بر این نکته تاکید دارد که اولین خط دفاع در مقابل صدمه های احتمالی، آموزش والدین، معلمان، کاربران و حتی درمانگران درباره ی نحوه کارکرد مدلهای زبانی، محدودیت های آنها، نحوه جمع آوری داده ها، خطرات وابستگی و راهکارهای استفاده ایمن است. بدون آموزش، فناوری به جای تسهیل درمان، می تواند مسیری به سمت اطلاعات غلط، وابستگی و صدمه باشد.

خلأهای حکمرانی و مسئولیت سیاست گذاران

در شرایط وجود چنین تهدید بزرگی، مقررات فعلی در بسیاری کشورها برای کنترل ابزارهای هوش مصنوعی کافی نیستند و شکاف بزرگی میان سرعت توسعه فناوری و ظرفیت نظارتی دولت ها شکل گرفته است. گزارش انجمن روان شناسی آمریکا تاکید می کند که گام اول، پیشگیری از عرضه خدمات به شکل فریب کارانه است؛ یعنی جایی که چت بات ها خودرا «درمانگر» یا «متخصص» معرفی می کنند و با استفاده از واژگان حرفه ای، کاربر را به اشتباه می اندازند. ممنوعیت قانونی این نوع معرفی، اقدامی ضروری برای پیشگیری از سوءبرداشت عمومی و حفاظت از کاربران صدمه پذیر است. از طرف دیگر، نبود شفافیت درباره ی داده های آموزشی، یکی از بنیادی ترین ضعف های این فناوری ها بحساب می آید. بی گمان بدون دانستن این که مدلهای زبانی بر چه نوع داده هایی آموزش دیده اند، نمی توان سوگیری ها، محدودیت ها یا احتمال تولید اطلاعات غلط را ارزیابی کرد. به همین دلیل، انجمن روان شناسی آمریکا خواهان اجبار پلت فرم ها به افشای سازوکارهای داده ای و فراهم سازی امکان ارزیابی مستقل است. تدوین استانداردهای علمی هم بخش مهم دیگری از این الزامات محسوب می شود. همانطور که هیچ دارویی بدون آزمایش های کلینیکی وارد بازار نمی گردد، ابزارهای دیجیتالی که وارد قلمرو سلامت روان می شوند هم باید تحت ارزیابی های تخصصی، آزمون های ایمنی و مطالعات اثربخشی قرار گیرند. این ارزیابی ها باید قبل از عرضه عمومی صورت گیرد و توسط نهادهای مستقل صورت گیرد. از طرف دیگر، با عنایت به حساسیت داده های روانی، حفاظت سختگیرانه از این اطلاعات باید تبدیل به یک قاعده الزامی شود. این داده ها همچون خصوصی ترین و حساس ترین انواع داده های فردی هستند و کوچک ترین سوءاستفاده یا نشت آنها می تواند دستاوردهای جدی اجتماعی، شغلی و حتی امنیتی داشته باشد. بالاخره، پیام محوری انجمن روان شناسی آمریکا اینست که هیچ میزان پیشرفت فناوری نباید جامعه را از اصلاح ساختارهای ناکارآمد سیستم سلامت روان غافل کند. چت بات ها هیچگاه جایگزین نیروی انسانی یا زیرساخت درمانی نمی شوند و اتکای بیش از اندازه به آنها به جای توسعه ظرفیت واقعی نظام سلامت، نه فقط کمکی به جامعه نمی کند بلکه می تواند وضعیت را وخیم تر سازد.

جمع بندی

با توسعه روز افزون هوش مصنوعی، چت بات های مبتنی بر این فناوری به بخشی جدایی ناپذیر از زیست جهان دیجیتال تبدیل گشته اند؛ زیست جهانی که هر روز مرز میان ارتباط انسانی و تعامل ماشینی را کمرنگ تر می کند. اما درست در همین نقطه است که خطر اصلی پدیدار می شود. استفاده از این ابزارها در حوزه سلامت روان، زمانیکه فاقد چارچوب بالینی، نظارت تخصصی و استانداردهای ایمنی هستند، می تواند نه فقط ناکارآمد، بلکه در نقاطی حتی صدمه زا باشد. این فناوری ها می توانند گفت و گویی روان، لحظه ای و پر از همدلی مصنوعی یا حس کوتاه مدت همراهی فراهم آورند، اما قادر به درک سوابق بالینی، ارزیابی نشانه های پیچیده روان شناختی، تشخیص ریسک، یا شکل گیری پیوند درمانی اصیل نیستند. توانایی ایجاد مکالمه، معادل توانایی درمان نیست؛ همان گونه که شباهت زبانی، معادل درک عمیق انسانی محسوب نمی گردد. آن چه گزارش انجمن روان شناسی آمریکا با تأکید روشن بیان می کند اینست که هوش مصنوعی فقط می تواند در نقش «یار کمکی» و به عنوان ابزاری برای تسهیل فرایندها در کنار درمانگر انسانی قرار گیرد. این ابزارها می توانند در بعضی شرایط محدود، مانند کاهش اضطراب لحظه ای، آموزش مهارت های ساده تنظیم هیجان یا عرضه تمرین های رفتاری، کمک کننده باشند، اما ستون های اصلی پروسه درمان یعنی ارزیابی بالینی، تصمیم گیری اخلاقی، مداخله مسئولانه و ایجاد رابطه درمانی مؤثر، همگی مستلزم قضاوت انسانی، تجربه حرفه ای و توانایی دریافت نشانه های غیرکلامی هستند؛ توانایی هایی که هیچ مدل زبانی قادر به بازتولید آن نیست. به همین دلیل، اصلاح سیستم سلامت روان، افزایش دسترسی به متخصصان، گسترش زیرساخت های درمانی و توانمندسازی منابع انسانی در این عرصه، بسیار مهم تر از هر ابزار هوشمند است. در نهایت می توان نتیجه گرفت که آینده درمان روان شناختی بدون شک از فناوری بهره خواهد گرفت؛ اما این آینده تنها زمانی سالم و ایمن خواهد بود که فناوری در خدمت درمانگر باشد و جایگزین او نشود.

1404/08/30
10:33:19
5.0 / 5
6
تگهای خبر: آموزش , اپل , اپلیكیشن , استاندارد
این مطلب دیجیتالر را می پسندید؟
(1)
(0)
X
تازه ترین مطالب مرتبط
کامنت بینندگان دیجیتالر در مورد این مطلب
کامنت شما در مورد این مطلب
نام:
ایمیل:
کامنت:
سوال:
= ۶ بعلاوه ۳
دیجیتالر
پربیننده ترین ها

پربحث ترین ها

جدیدترین ها

digitaler.ir - حقوق مادی و معنوی سایت دیجیتالر محفوظ است

دیجیتالر

معرفی محصولات دیجیتال و فناوری اطلاعات
دنیای دیجیتال در دستان شماست. دیجیتالر، همراه شما در دنیای فناوری اطلاعات