نکن، خطرناک است / هوش مصنوعی دکتر نیست
به گزارش نادیاتور، وارد کردن عمیقترین و تاریکترین افکارتان به فناوریهای غیرقانونی میتواند خطرات عمدهای را به همراه داشته باشد. به نقل از نادیاتور، یکی از کاربران «تیکتاک» اخیرا در یک ویدیو به استفاده از ChatGPT برای حل کردن مشکلات روحی خود اعتراف کرد و پرسید: هیچ کس دیگری از ChatGPT به عنوان یک رواندرمانگر بدون حقوق استفاده نمیکند؟
اگرچه به نظر میرسد دوستان این کاربر از اعتراف او شگفتزده شدهاند اما او تنها نیست. تعداد زیادی از مردم به ChatGPT روی آوردهاند تا برای پیش بردن روابط دوستانه و عاشقانه یا گرفتن راهنمایی درباره چگونگی داشتن زندگی بهتر کمک بخواهند.
یکی دیگر از کاربران تیکتاک نوشت: موقعیت: من در حال ورود به جلسه درمانی هفتگی خود هستم. من زندگی خود را در ChatGPT وارد میکنم و از گفتن هیچ جزئیاتی طفره نمیروم. کاربر دیگری از ChatGPT درخواست کرد تا توصیههایی را از سخنرانان الهامبخش و مورد علاقه او ارائه دهد.
درمانگران هوش مصنوعی چیز جدیدی نیستند. به عنوان مثال، «Woebot» در سال ۲۰۱۷ به عنوان یک کمک سلامت روان با هدف استفاده از پردازش زبان طبیعی و پاسخهای آموختهشده برای تقلید گفتوگو راهاندازی شد.
«کارل مارسی»(Carl Marci) مدیر ارشد بالینی و نویسنده کتاب «تنظیم مجدد: محافظت از مغز در عصر دیجیتال» گفت: ظهور درمانگران هوش مصنوعی برای حمایت از سلامت روان فقط یک روند فناوری نیست، بلکه یک زنگ خطر برای کار ماست. ما با عدم تطابق عرضه و تقاضا در مراقبتهای سلامت روان روبهرو هستیم که هوش مصنوعی میتواند برای رفع آنها ظاهر شود.
در آمریکا از هر سه نفر یک نفر در منطقهای زندگی میکند که با کمبود کارکنان سلامت روان روبهرو است. در عین حال، ۹۰ درصد مردم معتقدند که امروزه در آمریکا بحران سلامت روان وجود دارد. براساس این که درمان چقدر پرهزینه و غیر قابل دسترس است، جذابیت استفاده از ChatGPT بیشتر میشود زیرا این چتبات میتواند پاسخهای رایگان و سریع را ارائه دهد.
همچنین، این واقعیت که ChatGPT انسان نیست، برای برخی از افراد جذاب است و به آنها امکان میدهد تا عمیقترین و تاریکترین افکار خود را بدون ترس از قضاوت بیان کنند. با وجود این، انتقال عمیقترین و تاریکترین افکار به فناوریها که با نگرانیهایی پیرامون حفظ حریم خصوصی و نظارت همراه هستند، خالی از خطر نیست. دلیلی وجود دارد که درمانگران انسان به الزامات محرمانه نگه داشتن اطلاعات یا مسئولیتپذیری محدود میشوند.
ChatGPT برای درمانگر بودن ساخته نشده است. حتی خود ChatGPT به کاربران هشدار می دهد که گاهی ممکن است اطلاعات نادرستی را ارائه دهد یا دستورالعملهای مضر و محتوای مغرضانه تولید کند.
مارسی گفت: رویکرد مدلهای زبانی بزرگ هنوز آزمایش نشده است. این مدلها ممکن است توهمهایی را ایجاد کنند که میتواند برای افراد آسیبپذیر، منحرفکننده باشد یا حتی در صورت درخواست اشتباه به توصیههای خطرناک درباره خودکشی منجر شود.
۵۸۵۸
آیا شما به دنبال کسب اطلاعات بیشتر در مورد "نکن، خطرناک است / هوش مصنوعی دکتر نیست" هستید؟ با کلیک بر روی پزشکی، آیا به دنبال موضوعات مشابهی هستید؟ برای کشف محتواهای بیشتر، از منوی جستجو استفاده کنید. همچنین، ممکن است در این دسته بندی، سریال ها، فیلم ها، کتاب ها و مقالات مفیدی نیز برای شما قرار داشته باشند. بنابراین، همین حالا برای کشف دنیای جذاب و گسترده ی محتواهای مرتبط با "نکن، خطرناک است / هوش مصنوعی دکتر نیست"، کلیک کنید.