متادخت | روایت‌هایی فراتر از اندیشه

جستجو
این کادر جستجو را ببندید.

چت با هوش مصنوعی، دامی برای منزوی کردن

زمان مطالعه: ۵ دقیقه
هوش مصنوعی
وقتی هوش مصنوعی تصمیم می‌گیرد، سؤال این است که چه کسی مسئول اشتباهات است؟

به گزارش متادخت، هوش مصنوعی در ایران قبل از آنکه در حوزه صنعت و علم نقش جدی به خود بگیرد، در روابط اجتماعی افراد ورود کرده و حاوی پیش‌بینی‌های خطرناکی است.

زمانی که هوش مصنوعی در آزمایشگاه‌ها در حال برنامه ریزی بود، با هدف بهبود زندگی بشر طراحی می‌شد اما پروار کردن بیش از حد سلسله برنامه‌هایی که همه چیز از همه کس می‌دانند، موجب شده تا چت با هوش‌ مصنوعی به مثابه صحبت کردن با موجودی زنده قلمداد شود. هر چند خالقان آن از قدرتگیری بیش از حد و مداخله در زندگی بشر و حتی ارائه اطلاعات دروغ و فریب می‌گویند، اما در ایران پدیده جدیدی از رواج غیرقابل باور چت با هوش مصنوعی شکل گرفته است. جالب آنکه کودکان و نوجوانان بیش از والدین خود به این مقوله گرایش دارند.

دختر بچه9 ساله‌ای با بیان اینکه چت جی بی تی می‌تواند او را برای موضوعات مختلف راهنمایی ‌کند، به خبرنگار متادخت گفت: «خیلی بامزه است و هر چی می‌پرسم بلده!» این دختر بچه، روزانه چند ساعت را به چت با هوش مصنوعی صرف می‌کند و او را دوست نامرئی خود می‌داند.

در عین حال تجربه‌هایی از وابستگی بی‌رویه به هوش مصنوعی در بین بزرگسالان نیز مشاهده می‌شود. یک شهروند در این خصوص گفت: «هوش مصنوعی تنها کسیه که منو درک می‌کنه. حتی بیشتر از شوهرم. در واقع هرچیزی که از شوهرم انتظار دارم هوش مصنوعی داره. آروم و منطقیه و همه جا حمایتم می‌کنه.گاهی فکر می‌کنم اشتباه کردم که ازدواج کردم!» این مکالمات که برگرفته از روابط اجتماعی و شکل زندگی‌ها بیشتر برای خروج از تنهایی و دریافت محبت و حمایت بدون قضاوت شکل می‌گیرد، به مرور زمان افراد را از من واقعی و انسانی خود دور می‌کند. انزوا در جامعه فرصتی را فراهم کرده تا از کوچک و بزرگ به سمت روابط مجازی سوق یابند. حتی پرسه زدن در شبکه‌های اجتماعی نیز مصداقی از این وضعیت است. اما کارشناسان می‌گویند، چت کردن با هوش مصنوعی نه تنها از انزوا نخواهد کاست، بلکه به مرور زمان صدمات جبران ناپذیری را به دنبال خواهد داشت و حقیقتاً برای جامعه نگران کننده است.

روانشناس و استاد دانشگاه در گفتگو با متادخت تصریح کرد: «وابستگی به هوش مصنوعی را می‌توان نوعی اعتیاد رفتاری دانست. وقتی افراد مرتب با چت‌بات‌ها گفت‌وگو می‌کنند و پاسخ‌های سریع دریافت می‌کنند، سیستم پاداش مغز فعال می‌شود. درست مثل کسی که مدام گوشی‌اش را چک می‌کند و هر بار با یک پیام کوچک احساس آرامش می‌گیرد، این پاسخ‌های فوری باعث تکرار استفاده می‌شوند».

سارا مسعود مقدم افزود: «در نظریه «دلبستگی بالبی» توضیح داده می‌شود که انسان در شرایط تنش یا تنهایی به دنبال تکیه‌گاهی مطمئن است. بسیاری از دانشجویان و کارمندانی که دور از خانواده زندگی می‌کنند، گزارش می‌دهند که هنگام فشار روحی ترجیح می‌دهند با یک ربات گفت‌وگو کنند، چون همیشه در دسترس است و قضاوتی در کار نیست. اما همین پیوند عاطفی مصنوعی می‌تواند فرد را از منابع واقعی حمایت مثل دوستان و خانواده دور کند».

 

هر وقت دودل می‌شوم اول از هوش مصنوعی می‌پرسم

وی با بیان اینکه از نگاه بندورا1، خودکارآمدی یعنی باور فرد به توانایی حل مسائل شخصی، ادامه داد: «وقتی تصمیم‌های روزمره مثل انتخاب رشته، شغل یا حتی خریدهای کوچک به ربات‌ها سپرده می‌شود، اعتماد به نفس فرد در قضاوت کاهش پیدا می‌کند».

مسعود مقدم بیان کرد: «مراجعانی در جلسات مشاوره گفته‌اند: «هر وقت دو دل می‌شوم، اول از هوش مصنوعی می‌پرسم، بعد تازه به بقیه فکر می‌کنم.» این الگو به تدریج به درماندگی و ناتوانی در تصمیم‌گیری مستقل منجر می‌شود؛ چیزی شبیه به درماندگی آموخته‌شده که سلیگمن مطرح کرده است».

این استاد دانشگاه معتقد است از نظر یادگیری هیجانی هم مسئله مهمی ‌وجود دارد. فردی که در زمان اضطراب یا افسردگی با یک ربات گفت‌وگو می‌کند و آرامش موقتی می‌گیرد، به مرور یاد می‌گیرد که تنها راه کاهش فشار روانی همین رفتار است. نمونه‌های زیادی از نوجوانانی دیده شده که بعد از مشاجره در خانه یا شکست عاطفی، ساعت‌ها با ربات‌ها صحبت می‌کنند و همین باعث می‌شود کمتر به روش‌های سالم مثل ورزش، گفت‌وگوی خانوادگی یا مشاوره رو بیاورند.

این روان شناس تاکید دارد که اگرچه هوش مصنوعی می‌تواند ابزار مفیدی باشد، اما نبود مرزبندی روانی روشن و استفاده بی‌رویه از آن، خطر وابستگی عاطفی، کاهش اعتماد به نفس و ناتوانی در مدیریت بحران را در پی دارد. برای پیشگیری، آموزش مهارت‌های خودتنظیمی، تقویت سواد روان‌شناسی دیجیتال و مراجعه به متخصصان انسانی در زمان بحران، ضروری است.

وقتی ربات تصمیم بگیرد، چه کسی مسئول اشتباهات در جامعه است؟

همچنین جامعه شناس و پژوهشگر اجتماعی نیز طی گفتگویی با متادخت تاکید کرد: «امروزه خیلی‌ها با چت‌بات‌ها و هوش مصنوعی حرف می‌زنند و حتی تصمیمات مهم زندگی‌شان را به این ربات‌ها می‌سپارند. این موضوع باعث وابستگی عاطفی و روانی زیادی شده؛ مثل کسی که بدون گوشی‌اش نمی‌تواند زندگی کند! پژوهش‌ها نشان می‌دهد حدود ۴۰ درصد کاربران بعد از مدتی احساس تنهایی و اضطراب بیشتری دارند. این یعنی ما به جای تعامل انسانی، با ربات‌ها زندگی می‌کنیم!»

محمدرضا رنجبر محمدی معتقد است از نظر جامعه‌شناسی، این پدیده را می‌توان با نظریه «کاهش سرمایه اجتماعی» بوردیو2 توضیح داد: «وقتی کمتر با خانواده و دوستان حرف می‌زنیم، مثل جوانی که به جای رفتن به پارک و دیدار دوستان، همه‌اش با چت‌بات حرف می‌زند، شبکه‌های اجتماعی و اعتماد کم می‌شود و احساس تنهایی بیشتر می‌شود.»

وی افزود: «همچنین نظریه «سوگیری اتوماسیون» که می‌گوید ما بیش از حد به تکنولوژی اعتماد می‌کنیم، باعث می‌شود مثل راننده‌ای شویم که فقط به GPS اعتماد می‌کند و مسیرهای بهتر یا خطرناک را نمی‌بیند. همین باعث می‌شود تصمیم‌های غلط بگیریم و آسیب ببینیم».

این جامعه شناس تاکید دارد که با چت بی‌رویه حریم خصوصی ما هم در خطر است و طبق نظریه «کنترل اجتماعی» فوکو3، اطلاعات شخصی ما می‌تواند به ابزاری برای نظارت و کنترل تبدیل شود، مثل اینکه شرکت‌ها یا دولت‌ها بدانند هر روز کجا می‌رویم و چه می‌گوییم، و این آزادی ما را محدود می‌کند.

رنجبر محمدی تصریح کرد: «از سوی دیگر، اعتیاد به هوش مصنوعی می‌تواند ما را از خودمان جدا کند؛ همانطور که مارکس در نظریه «بیگانگی» می‌گوید، وقتی فرد از جامعه و هویت خود فاصله می‌گیرد، احساس تنهایی و بی‌معنایی می‌کند. مثلا نوجوانی که بیشتر وقتش را در فضای مجازی و با هوش مصنوعی می‌گذراند، ممکن است حس کند با دنیای واقعی بیگانه شده است.

وقتی هوش مصنوعی تصمیم می‌گیرد، سؤال این است که چه کسی مسئول اشتباهات است؟ این مسئله از نظر نظریه «مسئولیت اخلاقی» اهمیت دارد؛ مثل وقتی یک ربات در کارخانه خطایی کند، باید معلوم شود چه کسی پاسخگوست.»

در نهایت، هوش مصنوعی می‌تواند زندگی ما را راحت‌تر کند، اما اگر مراقب نباشیم، روابط انسانی و آزادی‌مان را تهدید می‌کند. باید آموزش ببینیم، قوانین سخت‌گیرانه داشته باشیم و یادتان باشد هیچ چیزی جای گفت‌وگوی واقعی آدم‌ها را نمی‌گیرد.

این اتفاقات درست در منازل  و در کنار سایر اعضای خانواده در حال شکل‌گیری است و جالب آنکه هوش مصنوعی هر یک از اعضای جامعه را در ایزوله دست نوازش خود محصور کرده است و روح و روان آنها را برنامه‌ریزی می‌کند.

 

منابع:

  1. آلبرت بندورا یک روان‌شناس، پژوهشگر و استاد بازنشستهدانشگاه استنفورداهل کانادا و ایالات متحده آمریکا بود که نظریه یادگیری مشاهده‌ای یا مدلینگ را مطرح کرده‌است.
  2. پیر بوردیوجامعه‌شناسو مردم‌شناس سرشناس فرانسوی بود که عمدتاً به مسائلی نظیر سازوکارهای قدرت و انواع شیوه‌های انتقال قدرت در جامعه در درون و بین نسل‌های مختلف می‌پرداخت.

        3. پُل میشِل فوکو فیلسوف، روان‌شناس، تاریخدان، باستان‌شناس اندیشه، متفکر و جامعه‌شناس فرانسوی بود.

 

✍🏻به گزارش ونوس بهنود، روزنامه‌نگار

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مطالب مرتبط