با هزینه های بالای روان درمانی، قابل درک است که چرا برخی از بیماران برای مشاوره سلامت روان به هوش مصنوعی مراجعه می کند و به جای استفاده از توصیه های آن ها از توصیه های چنین افرادی استفاده میکنند؛ اما خوب هست بدانید ابزارهای مولد هوش مصنوعی می توانند گفتار درمانی را تقلید کنند؛ به عبارت دیگر هوش مصنوعی به سؤالات کلی در مورد سلامت روان پاسخ می دهد، اما استفاده از آن برای درمان بیماری ها و مشکلات روانی می تواند آسیب بیشتری نسبت به سود آن داشته باشد.
در این گونه موارد شما باید همچنان به دنبال کسی باشید که به شکل حرفه ای بتواند مشکل شما را حل کند؛ در اینجا خطرات درخواست از ابزارهای هوش مصنوعی مانند هوش مصنوعی و Bing Chat برای ارائه درمان رایگان ذکر شده اند تا اطلاعات شما در این زمینه بالا برود.
-
اطلاعات مضر تولید می کنند.
هوش مصنوعی ذاتا غیر اخلاقی است زیرا سیستمهای آن اطلاعات را از مجموعه دادههایی که در آن وجود دارد میکشند و پاسخهای فرمولی به ورودی تولید میکنند؛ به عبارت دیگر آنها فقط دستورالعملها را دنبال میکنند؛ اما با وجود این بی طرفی، تعصبات هوش مصنوعی همچنان وجود دارد. آموزش ضعیف، مجموعه دادههای محدود، و مدلهای زبانی پیچیده باعث میشود رباتهای گفتگو پاسخهای کلیشهای و تأیید نشده ارائه دهند؛ پاسخ هایی که دچار سوء گیری های مختلفی هستند؛ پس خوب هست بدانید همه ابزارهای مولد هوش مصنوعی مستعد سوگیری هستند؛ پس هر چیزی که هوش مصنوعی می گوید را دوباره بررسی کنید.
همچنین اکیدا توصیه میشود، وقتی صحبت از درمان سلامت روان می شود، به طور کلی از منابع نامعتبر اجتناب کنید.
-
هوش مصنوعی دانش محدودی از دنیای واقعی دارد.
خوب هست بدانید بیشتر ابزارهای مولد دانش محدودی در دنیای واقعی دارند به عنوان مثال، Open AI فقط تا سال 2021 هوش مصنوعی را در مورد اطلاعات آموزش داده است. تصویر زیر از یک مکالمه، تلاش آن را برای ارائه گزارش های اخیر در مورد اختلال اضطراب نشان می دهد؛ همانطور که مشاهده میکنید هوش مصنوعی نمی تواند بگوید چند درصد از جمعیت اضطراب دارند.
به این ترتیب با در نظر گرفتن این محدودیت ها، اتکای بیش از حد به چت ربات های هوش مصنوعی، شما را مستعد توصیه های منسوخ و ناکارآمد می کند، زیرا شما به متخصصانی نیاز دارید که شما را از طریق برنامه های درمانی جدید و یافته های اخیر راهنمایی کنند.
به همین ترتیب، نیاز هست با متخصصینی در ارتباط باشید که از آنها در مورد روش های رد شده بپرسید زیرا پیروی کورکورانه از شیوه های بحث برانگیز و بی اساس مبتنی بر طب جایگزین ممکن است وضعیت شما را بدتر کند، پس به گزینه های مبتنی بر شواهد پایبند باشید.
-
محدودیت های امنیتی برخی موضوعات را ممنوع می کند.
خوب هست بدانید توسعه دهندگان هوش مصنوعی محدودیت هایی را در مرحله آموزش تعیین کرده اند؛ این محدودیت ها شامل دستورالعملهای اخلاقی که سیستمهای هوش مصنوعی را از ارائه دادههای مضر باز میدارند؛ که اگر هم این طور نباشد، کلاهبرداران می توانند بی پایان از آنها سوء استفاده کنند؛ این دستورالعمل ها اگرچه مفید هستند، و باعث میشوند افراد یود جو به چیزی که میخواهند نرسند؛ اما مانع از عملکرد و تطبیق پذیری می شوند.
با این حال، وقتی بحث از مشکلات روانی میشود شما باید آزاد باشید که افکار منفی خود را به اشتراک بگذارید و سرکوب آنها فقط ممکن است عوارض بیشتری ایجاد کند به عبارت دیگر استفاده از هوش مصنوعی در این زمینه فقط به برنامه های درمانی مبتنی بر شواهد و روند های هدایت شده در بیماران کمک می کند .
-
هوش مصنوعی نمی تواند دارو تجویز کند.
مشکل و مسئله بزرگ دیگری که در اکثر مواقع برای هوش مصنوعی اتفاق می افتد این هست که فقط روانپزشکان مجاز هستند دارو تجویز کنند و چت ربات های هوش مصنوعی جزییات اساسی در مورد برنامه های درمانی که بیماران سلامت روان تحت آن قرار می گیرند را ارائه می دهند به عبارت دیگر هیچ برنامه ای نمی تواند نسخه بنویسد. حتی اگر سالها همان داروها را مصرف کرده باشید، باز هم شما به نسخه پزشک نیاز دارید، نسخه ای که بدون آن درمان بیماریتان نیز امکان پذیر نیست.
-
چت بات ها اطلاعات عمومی را ارائه می دهند.
خوب هست بدانید هوش مصنوعی به سوالات دانش عمومی در مورد سلامت روان پاسخ می دهد که می توانید از آنها برای مطالعه گزینه های اصلی درمان، تشخیص علائم رایج و تحقیق در مورد موارد مشابه استفاده کنید. تحقیق صحیح به شما کمک می کند تا خودآگاهی ایجاد کنید. اگر وضعیت روانی و محرکهای عاطفی خود را درک کنید، بهبودی راحتتر پیش خواهد رفت؛ فقط حتما حتما به این نکته توجه داشته باشید که هوش مصنوعی اطلاعات عمومی را تولید می کند و نمیتواند علائم اختصاصی بیماری شما را تشخیص دهد؛ به عنوان مثال مکالمه زیر هوش مصنوعی را نشان می دهد که یک برنامه اقدام منطقی و در عین حال ساده برای فردی که حملات پانیک را تجربه می کند ارائه می دهد.
مشاهده میکنید که توصیه های یک مشاور یا درمانگر حرفه ای فراتر از آن چیزی است که هوش مصنوعی پیشنهاد می کند. می توانید از خروجی هوش مصنوعی به عنوان نقطه شروع برای درک بهتر مجلات دانشگاهی و مقالات تحقیقاتی استفاده کنید، اما حتماً تحقیقات عمیق تری انجام دهید یا با یک متخصص مشورت کنید.
-
خود تشخیصی به ندرت دقیق است.
هوش مصنوعی امکان تشخیص خود را فراهم می کند؛ به عبارت دیگر بیماران به جای پرداخت هزینه برای درمان، از چت بات ها می خواهند تا از متخصصان سلامت روان تقلید کنند. مه این ارزان تر در می اید و اگرچه راحت است، اما خطرات خود تشخیصی بیماری های روانی بسیار بیشتر از فواید آن است. هوش مصنوعی فقط اطلاعات را از مجموعه داده های خود می گیرد. چت باتها نه وضعیت شما را تجزیه و تحلیل میکنند و نه تشخیص میدهند زیرا اطلاعات محدودی در مورد سلامت کلی شما دارد؛ به عنوان مثال توجه کنید که گفتگوی زیر هوش مصنوعی را در حال ارزیابی یک شخصیت نشان می دهد. تنها با علائم رایج پزشکی که در اعلان ذکر شده است، در تشخیص آن مشکل دارد.
پس به عنوان یک قاعده کلی، به طور کلی از خود تشخیصی خودداری کنید، زیرا قرار گرفتن در برنامه درمانی اشتباه یا نادیده گرفتن علائم عوارض بیشتری ایجاد می کند.
-
هوش مصنوعی به سوابق پزشکی شما دسترسی ندارد.
مسئله مهم دیگری که باعث یشود شما از این ابزار برای درمان بیماری های روانی خود و تشخیص آن استفاده نکنید این هست که ابزارهای مولد هوش مصنوعی از مکالمات شما چیز هایی را یاد می گیرند به سوابق پزشکی شما دسترسی ندارد؛ به عبارت دیگر آنها از حافظه متنی برای به خاطر سپردن جزئیاتی که ذکر می کنید استفاده می کنند، بنابراین دقت و ارتباط خروجی را بهبود می بخشند؛ نه اینکه از قبل بدانند شما چه بیماریهایی داشته و دارید
مکالمه زیر را به عنوان مثال در نظر بگیرید. شخصیت موجود در سریعترین زمان با بدهی مبارزه میکند، بنابراین هوش مصنوعی آزادی مالی را در توصیههای ضد اضطراب خود گنجانده است.
با زمینه کافی، هوش مصنوعی می تواند شروع به ارائه برنامه های شخصی کند، اما مشکل این است که ابزارهای هوش مصنوعی مولد محدودیتهایی دارند و آن محدودیت ها این هست که آنها فقط مقدار محدودی از داده را به خاطر میآورند.
در پایان خوب هست بدانید محدودیت های دقیق در هر پلت فرم متفاوت است. بینگ چت بعد از 20 نوبت چت های جدید را شروع می کند، در حالی که هوش مصنوعی 3000 کلمه آخر مکالمه را به خاطر می آورد. اما در هر صورت، هیچ کدام از این ابزارها همه سوابق پزشکی شما را در خود جای نمی دهند و در بهترین حالت، ابزارهای مولد هوش مصنوعی فقط میتوانند اطلاعات منتخب، مانند تشخیصهای اخیر یا احساسات فعلی شما را در کنار هم قرار دهند.
-
ماشین ها نمی توانند با شما همدلی کنند.
همدلی نقش مهمی در درمان دارد. درک اهداف، نیازها، شیوه زندگی، تعارضات درونی و ترجیحات بیمار به متخصصان کمک می کند تا گزینه های درمانی را سفارشی کنند. اما متأسفانه همانطور که میدانید ماشین ها بی احساس هستند. با وجود اینکه مدلهای زبانی در سالهای گذشته پیشرفت چشمگیری داشتهاند، هوش مصنوعی تا رسیدن به این تکنیک فاصله زیادی دارد؛ به عبارت دیگر هوش مصنوعی صرفاً همدلی را تقلید می کند. هنگام بحث در مورد سلامت روان، منابع مفیدی را ذکر می کند، از زبان ذهن آگاهانه استفاده می کند و شما را تشویق می کند که به متخصصان مراجعه کنید؛ اما در واقع این یک همدلی واقعی نیست
-
هوش مصنوعی پیشرفت شما را ردیابی نمی کند.
مدیریت علائم بیماری های روانی مستلزم درمان و مشاهده طولانی مدت است و لازم هست که بدانید هیچ درمان آسانی برای شرایط سلامت روان وجود ندارد. مانند اکثر بیماران، ممکن است چندین برنامه را امتحان کنید. تأثیرات آنها از فردی به فرد دیگر متفاوت است – تعهد بیدقت به گزینههای عمومی نتایج ناچیزی را به همراه دارد؛ بسیاری این فرآیند را طاقت فرسا می دانند. و به همین دلیل است که باید به جای مدل های زبان پیشرفته از متخصصان تحصیل کرده و همدل کمک بگیرید.
پس حواستان باشد که اگر واقعا میخواهید بیماری شما درمان شود به دنبال افرادی باشید که در طول سفر از شما حمایت کنند. آنها باید پیشرفت شما را ردیابی کنند، برنامه های درمانی را ارزیابی کنند، علائم پایدار را بررسی کنند، و محرک های سلامت روان شما را تجزیه و تحلیل کنند.
شما نمی توانید مشاوره را با چت ربات های هوش مصنوعی جایگزین کنید
در قسمت های قبل سعی کردیم در این زمین اطلاعات مفیدی را در اختیار شما قرار دهیم؛ اما به عنوان سخن پایانی و یک نتیجه گیری کلی خوب هست ذکر کنیم برای پشتیبانی اولیه فقط از ابزارهای هوش مصنوعی مولد استفاده کنید. سوالات کلی در مورد سلامت روان بپرسید، گزینه های درمانی را مطالعه کنید و در مورد معتبرترین متخصصان منطقه خود تحقیق کنید. فقط انتظار نداشته باشید که آنها به طور کلی مشاوره را جایگزین کنند و برای درمان کامل خود از آن ها استفاده نکنید.
به همین ترتیب، توصیه میشود سایر پلتفرم های مبتنی بر هوش مصنوعی را که از سلامت روان پشتیبانی می کنند، کاوش کنید. مثلا Headspace حاوی ویدیوهای مدیتیشن هدایتشده است، Amaha حال شما را ردیابی میکند و Rootd تمرینهای تنفسی را آموزش میدهد؛ پس حواستان باشد که هنگام جستجوی منابع سلامت روان از هوش مصنوعی و Bing Chat فراتر بروید.