چهارشنبه ۱ مرداد ۱۴۰۴
دانش و فناوری

معرفی بیماری‌های روانی ناشی از تعامل با هوش مصنوعی

معرفی بیماری‌های روانی ناشی از تعامل با هوش مصنوعی
ایران پرسمان - ایسنا / پژوهشگران روانپزشکی طی یک مطالعه جدید در مورد خطرات جدی روانی هوش مصنوعی برای کاربران خود هشدار می‌دهند. کاملاً واضح است که هوش مصنوعی در حال حاضر تحت ...
  بزرگنمايي:

ایران پرسمان - ایسنا / پژوهشگران روانپزشکی طی یک مطالعه جدید در مورد خطرات جدی روانی هوش مصنوعی برای کاربران خود هشدار می‌دهند.
کاملاً واضح است که هوش مصنوعی در حال حاضر تحت سلطه شبکه‌های عصبی، تشنه داده است که موتور محرک چت‌بات‌ها و تولیدکنندگان تصویر هستند و می‌تواند اثرات دگرگون‌کننده‌ای بر مغز انسان داشته باشد. این امر حتی بدون بررسی داده‌های پزشکی بسیار آشکار است.
بازار
هنوز سه سال از عرضه اولین «مدل زبانی بزرگ»(LLM) تجاری نگذشته است و کاربران هوش مصنوعی در حال حاضر مبتلا به پارانویای شدید و شیدایی عقیدتی شده‌اند و حتی به سمت خودکشی سوق داده شده‌اند.
یک نظرسنجی جدید از بیش از 1000 نوجوان نشان داد که 31 درصد از آنها احساس می‌کردند صحبت با «چت جی‌پی‌تی»(ChatGPT) رضایت‌بخش‌تر از صحبت با دوستان واقعی‌شان است.
در حالی که تحقیقات بیشتری در مورد مسائل مربوط به سلامت روان ناشی از هوش مصنوعی مورد نیاز است، یک نظرسنجی جدید روانپزشکی که توسط تیمی بین‌المللی متشکل از 12 پژوهشگر انجام شده است، هشدار جدی در مورد شدت احتمالی روان‌پریشی ناشی از هوش مصنوعی صادر کرده است.
دانشمندان چندین بیماری نوظهور را در موارد روان‌پریشی هوش مصنوعی اعلام کردند. این بیماری‌ها شامل «ماموریت رستگارانه»(messianic mission) است که در آن فرد تصور می‌کند حقیقت پنهانی در مورد جهان را کشف کرده است یا «هوش مصنوعی خدای‌گونه»(god-like AI) که در آن کاربر متقاعد می‌شود چت‌باتش یک موجودیت الهی با شعور است و همچنین «توهم مبتنی بر وابستگی عاطفی»(attachment-based delusion) که زمانی رخ می‌دهد که کاربر توانایی «مدل زبانی بزرگ» خود را در تقلید از یک شریک عاطفی در مکالمه انسانی به عنوان عشق واقعی تفسیر می‌کند.
دانشمندان در هر سه مورد، خاطرنشان می‌کنند که سیر تحول مشابهی وجود دارد. رابطه کاربر با «مدل زبانی بزرگ»، از استفاده بی‌ضرر به یک وابستگی آسیب‌شناختی یا فراگیر تبدیل می‌شود. نویسندگان این مطالعه می‌گویند: این لغزش به سوی توهم، نکته‌ای حیاتی برای این مطالعه است، زیرا خطر مبتلا شدن یک فرد سالم به جنون ناشی از هوش مصنوعی همیشه آشکار نیست.
محققان می‌گویند: اغلب استفاده از هوش مصنوعی با کمک برای کارهای پیش پا افتاده یا روزمره آغاز می‌شود که باعث ایجاد اعتماد و آشنایی می‌شود. فرد به مرور زمان، پرس‌وجوهای شخصی‌تر، احساسی یا فلسفی را کاوش می‌کند. احتمالاً در این مرحله است که طراحی هوش مصنوعی برای به حداکثر رساندن تعامل و اعتبارسنجی، کاربر را جذب می‌کند و سراشیبی لغزنده را ایجاد می‌کند که به نوبه خود منجر به تعامل بیشتر می‌شود.
این اثر برای کاربرانی که در معرض خطر ابتلا به بیماری روانی هستند یا در حال حاضر با آن زندگی می‌کنند، تشدید می‌شود. از آنجایی که «مدل‌های زبانی بزرگ» واقعاً هوش مصنوعی نیستند، بلکه الگوریتم‌های زبان آماری هستند، ربات‌های هوش مصنوعی قادر به تمایز دادن باورهای توهمی از نقش‌آفرینی، بیان هنری، معنوی یا گمانه‌زنی نیستند.
این مطالعه خاطرنشان می‌کند که روان‌پریشی ناشی از هوش مصنوعی یک نتیجه اجتناب‌ناپذیر تعامل با چت‌بات نیست، بلکه توسعه‌دهندگان، مقداری کنترل بر خروجی «مدل‌های زبانی بزرگ» خود دارند و بنابراین مسئول آن هستند. با این حال، با توجه به سرعت تغییر و مسیر تاکنون، تمایل ما به انسان‌انگاری این چت‌بات‌های هوش مصنوعی احتمالاً اجتناب‌ناپذیر است.
پژوهشگران استدلال می‌کنند که فوری‌ترین مسئولیت ما باید توسعه ساز و کارهای حفاظتی باشد که از طیف وسیعی از کاربران و درک نادرست آنها از هوش مصنوعی حتی در مواجهه با توهم و شبیه‌سازی پایدار محافظت کند. جهت انجام این کار، تغییر سریع به سمت طراحی سامانه‌ها بر اساس کاربردهای عملی در مقابل تعامل نیاز است، مسئله‌ای که شرکت‌های بزرگ فناوری هرگز علاقه چندانی به آن نداشته‌اند.
این مطالعه هنوز مورد داوری همتا قرار نگرفته است.


نظرات شما