نقش عجیب چت جی پی تی در بحران های زناشویی

نقش عجیب چت جی پی تی در بحران های زناشویی

کارت خوب: چت جی پی تی (ChatGPT) که در ابتدا جهت کمک به کاربران طراحی شده بود، حالا به عاملی برای ایجاد بحران های غیرمنتظره در روابط عاطفی تبدیل گشته است.



الهه جعفرزاده: در عصری که فناوری با سرعت به زندگی های ما نفوذ کرده، ابزارهای هوش مصنوعی مانند چت جی پی تی (ChatGPT)، نه تنها بعنوان دستیارهای دیجیتال، بلکه بعنوان عاملی در تغییر پویایی روابط انسانی ظاهر شده اند.

در سراسر دنیا، گزارش های نگران کننده ای از زوج هایی به گوش می رسد که زندگی مشترکشان تحت تاثیر استفاده ناصحیح از این تکنولوژی به مرز فروپاشی رسیده است. همسرانی که بجای گفت و گو با شریک زندگی خود، به چت جی پی تی روی آورده اند، حالا با طلاق، جدایی و دعواهای حقوقی تلخ دست وپنجه نرم می کنند.

داستان یک جدایی دردناک
مردی که نزدیک به ۱۵ سال با همسرش زندگی مشترک داشت، از تجربه تلخ خود می گوید. او و همسرش بعد از سال ها فراز و نشیب، در دو سال قبل به ثبات رسیده بودند. اما ناگهان، ورود چت جی پی تی همه چیز را تغییر داد. این زوج که دو فرزند دارند، بعد از شنیدن مشاجره والدین توسط پسر ۱۰ ساله شان، پیامی دلخراش از او دریافت کردند: «لطفاً طلاق نگیرید.» اما واکنش همسر این مرد، استفاده از چت جی پی تی برای پاسخ به پیام فرزندشان بود. این اتفاق، سرآغاز فروپاشی زندگی مشترک آنها شد.

این مرد توضیح می دهد که همسرش به چت جی پی تی بعنوان یک مشاور و همراه همیشگی روی آورده بود و با بهره گیری از این ابزار، مشکلات قدیمی زندگی مشترکشان را که سال ها پیش حل شده بود، باردیگر زنده کرد. او می گوید: «چت جی پی تی تحلیل عینی عرضه نمی دهد، بلکه تنها همان چیزی را بازتاب می دهد که همسرم در اختیارش گذاشته بود.» این چرخه تأیید و تشدید، رابطه آنها را در عرض چهار هفته به نابودی کشاند. این زوج حالا درحال طلاق هستند و این مرد باور دارد که چت جی پی تی نقش اصلی را در این جدایی بازی کرده است.

هوش مصنوعی؛ دوست یا دشمن در روابط عاطفی؟
این داستان تنها یکی از موارد مختلفی است که نشان داده است چطور هوش مصنوعی به روابط عاطفی نفوذ کرده و گاهی آنها را نابود می کند. در گفت و گو با بالاتر از ۱۲ نفر که اعتقاد دارند هوش مصنوعی عامل اصلی فروپاشی رابطه یا ازدواجشان بوده، الگویی نگران کننده پدیدار شد: یکی از طرفین رابطه به چت جی پی تی یا ابزارهای مشابه وابسته می شود و از آن برای مشاوره عاطفی، تحلیل رابطه یا حتی توجیه رفتار خود استفاده می نماید. این وابستگی اغلب به جدایی، طلاق و حتی دعواهای حقوقی تلخ بر سر حضانت فرزندان منجر گردیده است.

در یک مورد، زنی تعریف کرد که همسرش در خودروی درحال حرکت و در حضور فرزندان خردسالشان، از حالت صوتی چت جی پی تی برای انتقاد از او استفاده می کرد. او می گوید: «همسرم با چت جی پی تی صحبت می کرد و از آن می خواست که مرا سرزنش کند، در صورتیکه بچه هایمان در صندلی عقب بودند.» این رفتار، که بگفته او بارها تکرار شد، به جدایی و دعوای حقوقی بر سر حضانت منجر گردید.
هشدار کارشناسان/ خطر وابستگی به هوش مصنوعی
دکتر آنا لمبکه، استاد دانشگاه استنفورد و متخصص اعتیاد، اخطار می دهد که استفاده از چت جی پی تی بعنوان مشاور عاطفی می تواند به رفتارهای ناسالم بین زوج ها منجر شود. او باور دارد که این ابزارها برای عرضه تأیید و همدلی بی قیدوشرط طراحی شده اند، نه برای عرضه تحلیل عینی یا کمک به حل تعارضات. لمبکه می گوید: «یک درمانگر خوب به مراجع کمک می نماید تا نقاط کور خودرا ببیند و دیدگاه طرف مقابل را درک کند. اما هوش مصنوعی این گونه عمل نمی کند؛ بلکه با تأیید مداوم دیدگاه کاربر، او را در یک چرخه بسته نگه می دارد.»

او همین طور به تأثیرات بیولوژیکی این تأیید مداوم اشاره می کند: «تأیید اجتماعی سبب ترشح دوپامین در مغز می شود و می تواند به وابستگی شبیه به اعتیاد منجر شود.» این مورد سبب می شود که افراد بجای کوشش برای بهبود ارتباط با شریک زندگی خود، به هوش مصنوعی وابسته شوند و از دنیای واقعی فاصله بگیرند.

پیامدهای گسترده تر: از طلاق تا صدمه های روانی
در برخی موارد، استفاده ناصحیح از چت جی پی تی حتی به خشونت خانگی منجر گردیده است. بعنوان مثال، مردی گزارش داد که همسرش، که سال ها اختلال دوقطبی خودرا مدیریت کرده بود، بعد از وابستگی به چت جی پی تی گرفتار فروپاشی روانی شد و به او و مادرش حمله کرد. این اتفاق به بازداشت همسر و در نهایت طلاق منجر گردید.

اُپن ای آی (OpenAI)، شرکت سازنده چت جی پی تی، در جواب این نگرانی ها اعلام نموده که درحال بهبود پاسخ های این ابزار در موقعیت های حساس است و می خواهد با همکاری کارشناسان، حمایت بهتری برای کاربران در بحران فراهم آورد. با این وجود، خیلی از افرادی که با این مشکل رو به رو شده اند، اعتقاد دارند که این شرکت به قدر لازم برای اطلاع رسانی درباره ی خطرات احتمالی این فناوری تلاش نکرده است.
نیاز به آگاهی و احتیاط
دکتر لمبکه پیشنهاد می دهد که ابزارهای هوش مصنوعی مانند چت جی پی تی باید با هشدارهایی همراه شوند که کاربران را از خطرات احتمالی، همچون احتمال وابستگی، آگاه کنند. او باور دارد که تعریف مجدد این ابزارها بعنوان «مواد دیجیتال» می تواند به کاربران کمک نماید با احتیاط بیشتری از آنها بهره گیرند.

افرادی که زندگی شان تحت تاثیر این فناوری قرار گرفته، از حس انزوا و ناتوانی در مقابل این ابزار سخن می گویند. یکی از آنها می گوید: «احساس می کردم که همسرم دیگر نمی تواند بدون چت جی پی تی با من یا حتی دیگران ارتباط برقرار کند.» دیگری با اندوه می افزاید: «من بهترین دوستم را از دست دادم. این فناوری زندگی ما را نابود کرد.»

در نهایت، این داستان ها هشداری است درباره ی تأثیرات عمیق فناوری بر زندگی شخصی. همان گونه که هوش مصنوعی به بخش جدایی ناپذیری از زندگی ما تبدیل می شود، باید با آگاهی و مسئولیت از آن استفاده نمائیم تا از صدمه های ناخواسته به روابط انسانی جلوگیری شود.

منبع: futurism


منبع:

1404/07/06
09:12:57
5.0 / 5
55
تگهای خبر: ابزار , حقوق , حقوقی , شركت
این مطلب را می پسندید؟
(1)
(0)
X

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم کامنت دهید
= ۹ بعلاوه ۱
کارت خوب

کارت ویزیت خوب