چگونه هوش مصنوعی برای تغییر دادن بشریت طراحی شده است

چگونه هوش مصنوعی برای تغییر دادن بشریت طراحی شده است

کلمه سایکوتکنولوژی از ابداعات ویلیام امرمن است، هر چند که ممکن است دیگران نیز چنین واژه ای را به کار بسته و معانی خاص خود را از آن مد نظر داشته باشند. تعریف امرمن از کلمه سایکوتکنولوژی این است که «فناوری یی که با به کار گرفتن هوش مصنوعی و از طریق رسانه های دیجیتال، از نظر روانی بر مردم تاثیر می گذارد.» این واژه ترکیبی است از دو کلمه روان بعلاوه فناوری. مفهومی که در پشت واژه سایکوتکنولوژی قرار دارد به شدت مهم ( و خطرناک) است: این ایده که هرچه فناوری بیشتر پیشرفت کند، بیشتر شخصی سازی شود و شباهت آن به انسان بیشتر شود، بیشتر می تواند ما را ترغیب و راضی کند.

هوش مصنوعی خطرات زیادی به همراه دارد. همانطور که در مقاله قبلی ام «هوش مصنوعی صوتی: طلیعه تحلیل رفتن تفکر انسانی» اشاره کردم، ظهور هوش مصنوعی صوتی را می توان طلایه دار عصر جدیدی از  انفعال و تنبلی فکری دانست. ممکن است هر چه می گذرد مردم  بیش از پیش به هوش مصنوعی صوتی خود اتکا کنند، تا جایی که  برای تایید صحت پاسخ های آن دیگر حتی زحمت چک کردن مطالب و جستجو برای یافتن دیدگاه های جایگزین را به خود ندهند. این روند به نوبه خود محدودیت بسیار زیادی را متوجه ادراک انسانی خواهد کرد که محدودیت ها و الگوریتم های سازه های شرکت های  بزرگ فناوری بزرگ اساسا آن را محدود کرده اند؛ البته مثل همیشه از طریق همکاری نزدیک با مجموعه نظامی اطلاعاتی و دیگر عناصر نظم نوین جهانی.

خطر هوش مصنوعی: بسط همدردی انسان ها نسبت به ماشین ها

از نظر من سایکوتکنولوژی یکی از خطرات کلیدی هوش مصنوعی است. سایکوتکنولوژی  تهدید زیانبار خاصی را به بار می آورد، چرا که ظاهرا بی خطر و سودمند به نظر می رسد. اما نکته در همین جاست: وقتی که ما با وسایل و ماشین های هوشمندمان سخن می گوییم، هر چه می گذرد همدلی بیشتری نسبت به آنها احساس می کنیم. دستیاران دیجیتالی نظیر سیری شرکت اپل، آلکسای شرکت آمازون، اسیستانت شرکت گوگل و کورتانای شرکت مایکروسافت از فناوری واسطه کاربر صوتی استفاده می کنند. تعامل با این وسایل به معنای داد و ستد جملات با شیئی است که اصولا به یک طبقه موجودیتی متفاوت تعلق دارد. سازندگان هوش مصنوعی این را می دانند، در واقع بنیانگزاران و مدیران شرکت های بزرگ فناوری علنا  درباره هک کردن روان انسان و بهره برداری از نقاط ضعف موجود در روان انسان لاف زده اند (از جمله شون پارکر مدیر اجرایی پیشین فیس بوک.) هر چه درگیر شدن ما با وسایل هوشمندمان بیشتر شود، بیشتر احساساتمان را به آنها نسبت می دهیم (با وجود این واقعیت که آنها اشیایی بی جان هستند). کم کم فرض را بر این می گیریم که صدایی که می شنویم متعلق به یک موجود جاندار و مستقل است. تا جایی که اندک اندک آنها می توانند ما را ترغیب و راضی کنند.

ماشین های هوش مصنوعی برای این طراحی شده اند که روی روان تاثیر بگذارند

سایکوتکنولوژی یک تکنولوژی روانشناسانه است. یک فناوری که از نظر روانی روی ما کار می کند. پس باید لحظه ای دست برداریم و تامل کنیم: ما با ماشین های هوش مصنوعی در گفتگو هستیم که آگاهانه برای این طراحی شده اند که چگونه ما را با اطلاعاتی شخصی شده ترغیب و راضی کنند. این ماشین های هوش مصنوعی می دانند که چگونه ماشه عواطف ما را بکشند، چرا که به این طریق برنامه ریزی شده اند. امرمن توضیح می دهد در نتیجه آمیزه ۴ عامل است که این اتفاق رخ می دهد:۱) شخصی سازی اطلاعات / آگهی های تجاری؛ ۲) بهبود علم ترغیب کردن؛ ۳) یادگیری ماشینی؛ ۴) پردازش زبانی طبیعی.

ما در نقطه ای از تکامل خود قرار داریم که در آن علم ترغیب و اقناع، پیشرفت زیادی کرده است و همانطور که امرمن توضیح می دهد: «یک «لایک» در شبکه های اجتماعی می تواند ماشه آزاد سازی مقدار کمی دوپامین را بکشد که در مغز ما ایجاد لذت و ما را به فیدهای شبکه های اجتماعی مان معتاد می کند. سازندگان بازی های ویدئویی نیز از ماشه های مشابهی برای پاداش دهی به ما و معتاد کردن ما به بازی هایمان استفاده می کنند. پژوهشگران از جمله کلیفورد ناس و بی جی فاگ مطالعه ترغیب اقناع کردن را به یک علم تبدیل کرده اند، در حالی که همزمان نشان می دهند که انسان ها می توانند رابطه ای مبتنی بر همدلی با رایانه هایشان از خود نشان دهند. همچنین آنها نشان داده اند که هر چه ظاهر رایانه ها بیشتر به انسان شباهت داشته باشد، انسان ها همدلی بیشتری با آنها از خود نشان می دهند. همچنان که رایانه ها کیفیات انسانی بیشتری مثل توانایی سخن گفتن را به دست می آورند، اقناع کننده تر نیز می شوند.»

پس وقتی که این یادگیری ماشینی را با آنها ترکیب می کنید، یک دستور تهیه با پتانسیلی خطرناک را در اختیار دارید که با کمک آن می توان ماشین های هوش مصنوعی را از نوکر به ارباب تبدیل کرد: «الگوریتم ها دیگر  فقط پیش بینی نمی کنند. آنها نسخه می نویسند و بهبود پیدا می کنند. پیشرفت های صورت گرفته در هوش مصنوعی از جمله یادگیری با نظارت، یادگیری بدون نظارت و یادگیری تقویت شده، تضمین می کنند که بازاریابان و آگهی دهندگان مداوما تاکتیک های مورد استفاده خود را برای انتقال پیام های ترغیب کننده و شخصی شده بهبود می بخشند. رایانه ها به معنای واقعی کلمه در حال یادیگری نحوه اقناع و راضی کردن ما با استفاده از اطلاعات شخصی شده هستند.»

سیری، آلکسا، من عاشق تو هستم!

امرمن داستان پسر بچه (۴ ساله ای) را تعریف می کند که مدتی از یک وسیله اکوی متعلق شرکت آمازون استفاده می کرده و با فرمان دادن به آن در انجام برخی کارهای مشخص از آن کمک می گرفته، فرمان هایی مثل «موسیقی جنگ ستارگان را پخش کن!» تا اینکه یک روز این پسر به آلکسا می گوید «من عاشق تو هستم!» مادرش این حرف پسرش را شنیده بود و امرمن که شاهد ماجرا بود، متوجه شد که چگونه حالتی از درد و  یا حسادت در چهره مادر منعکس شد. متاسفانه این موارد معدود نیست. گزارش های بسیار زیادی وجود دارند که افراد عاشق دستگاه هایشان شده اند. مکانوفیلیا (روی آوردن به ماشین ها از نظر جنسی) یک اختلال روانی قابل تشخیص است. آیا درمورد «شبیه سازی های قرار آشنایی» که در آنها هدف بازی ویدئویی عاشق یک شخصیت رایانه ای می شود و آن دو سال های سال به خوبی و خوشی زندگی می کنند چیزی شنیده اید؟

وقتی بدانید که تمام این ها بر اساس یک دستور کار نظم نوین جهانی صورت می گیرد، از هیچ یک این مسائل تعجب نخواهید کرد. ما شرطی شده ایم که چنین شویم. ما تشویق می شویم که در مورد دستگاه هایمان انسان پنداری کنیم و همچون موجودات زنده با آنها ارتباط برقرار کنیم، در حالی که آنها به معنای واقعی کلمه اشیایی بی جان هستند. چرا؟ دستور کار پشت این مسائل، فراانسان گرایی است، یعنی ادغام انسان و ماشین. به ما یاد داده اند که با هوش مصنوعی همچون جاندار عمل کنیم، با آن دوستی کنیم و آنگاه آن را بپرستیم، به این ترتیب در نهایت می توانیم متقاعد شویم که با آن ادغام شویم و در این روند، انسانیت خود را از دست دهیم.

ما باید از اثرات سایکوتکنولوژی آگاه باشیم

این یکی از حوزه هایی است که در آن آگاهی، بخش عمده ای از راه حل را شکل می دهد. اگر ما بخواهیم استقلال (و سلامت عقلی) خود را حفظ کنیم، باید در برابر اصرار به انسان پنداری وسایل هوشمند و رایانه هایمان مقاومت کنیم. آنها ماشین هستند، مهم نیست چقدر «باهوش» شوند. هیچ جایگزینی برای روابط انسانی، تعامل انسانی و صمیمیت انسانی وجود ندارد. از اشاره به ماشین ها با ضمیر «او» دست بردارید، چرا که آنها هرگز نمی توانند چیزی بیش از یک شی بی جان باشند که برای انجام کاری خاص برنامه ریزی شده اند. از استفاده از آنها به عنوان جانشینی برای اندیشیدن، سرگرمی و – مهم تر از همه – برای رسیدن به رضایتی عمیق تر دست بردارید. چرا که اگر از اثرات سایکوتکنولوژی غفلت بورزیم، فقط خودمان را به مخاطره انداخته ایم.

نویسنده: ماکیا فریمن (Makia Freeman) سردبیر آلترنیتیو مدیا

منبع: globalresearch

بیشتر بخوانید
اهدای الهه بلورین مونت‌کارلو به مایکل داگلاس
اهدای الهه بلورین مونت‌کارلو به مایکل داگلاس