پولینا آرونسون
هوش مصنوعی دیگر صرفا به توانایی محاسبه سریع‌ترین مسیر رانندگی از لندن به بخارست یا شکست دادن گری گاسپارف در بازی شطرنج اطلاق نمی‌شود. به مرحله بعد بیندیشید: به هوش مصنوعی «عاطفی» فکرکنید.
کد خبر: ۶۳۵۴۳۰
تاریخ انتشار: ۰۵ مرداد ۱۳۹۷ - ۱۲:۳۳ 27 July 2018

درسپتامبر 2017 یک تصویر متنی از یک گفتگوی ساده، در بخش روسی زبان اینترنت به مطلبی پر بیننده تبدیل شد. در این تصویر متنی، یک جمله مشابه و پاسخ به آن از طرف دو واسطه محاوره ای نشان داده می شد: گوگل اسیستانت انگلیسی زبان و آلیسای روس زبان که توسط موتور جستجوی پر طرفدار روسی یاندکس طراحی شده است. این عبارت سرراست بود: «غمگینم.» اما پاسخ هایی که به آن داده شده بود دیگر نمی توانست متفاوت تر از این باشد. گوگل جواب داده بود: «کاشکی دست داشتم تا بتوانم بغلت کنم.» آلیسا جواب داده بود: «هیچ کی نگفته که همه چیز زندگی تفریح و خوشمزگی است.»
این تفاوت  فقط در داده ها نیست که عجیب است بلکه احتمالا نتیجه یک روند ماهرانه و ازنظر فرهنگی حساس آموزش درک احساسات انسانی به فناوری های جدید است. هوش مصنوعی دیگر صرفا به توانایی محاسبه سریع ترین مسیر رانندگی از  لندن به بخارست یا شکست دادن گری گاسپارف در بازی شطرنج اطلاق نمی شود. به مرحله بعد بیندیشید: به هوش مصنوعی «عاطفی» فکرکنید.
«سیری، من احساس تنهایی می کنم»: شمار فزاینده ای از مردم، خوب یا بد، در حال بازگو کردن این قبیل اظهارنظرهای عاطفی شان به سنگ صبورهای دیجیتال خود هستند. به گفته آمازون نیمی از گفتگوهایی که با  آلکسا، وسیله خانگی هوشمند این شرکت صورت می گیرد، ماهیتی غیر فایده گرایانه دارند؛ غرولند کردن درباره وضعیت زندگی، جوک تعریف کردن و سئوالات فلسفی.
در اواخر سال 2017 وقتی شرکت  اپل درحال استخدام مهندس برای مشارکت در ساخت دستیار مجازی اش بود که قرار بود همخوانی عاطفی بیشتری داشته باشد، در آگهی شغلی خود چنین اعلام کرد: «مردم درباره انواع و اقسام مسائل با سیری حرف می زنند، از جمله اینکه چه روز پر استرسی داشته اند یا مسئله ای جدی فکرشان را به خود مشغول کرده بوده. آنها در شرایط اضطراری یا وقتی که برای داشتن یک زندگی سالم راهنمایی می خواهند، به سیری روی می آورند.»
شاید بعضی ها از اینکه درونی ترین احساساتشان را برای یک هوش مصنوعی فاش کنند، احساس راحتی بیشتری داشته باشند. مطالعه ای که «موسسه فناوری های خلاق» درلس آنجلس در سال 2014 انجام داد، نشان می دهد که مردم  زمانی که بر این باورند به جای یک شخص واقعی درحال تعامل با یک شخص مجازی هستند، غم و اندوه خود را بیشتر و پر رنگ تر نشان می دهند و از افشای درونیاتشان کمتر هراس دارند.
به زودی ممکن است حتی دیگر به درمیان گذاشتن اسرارمان با گوشی همراهمان هم نیازمند نباشیم. چندین دانشگاه و شرکت در حال تحقیق در این باره اند که چگونه بیماری روانی و تغییرات خلق و خو را می توان تنها با تجزیه و تحلیل لحن صدا یا سرعت تکلم انسان تشخیص داد. سوند هلث شرکتی که در سال 2016 در بوستون راه اندازی شد، از آزمایش های صوتی برای نظارت بر افسردگی پس از زایمان زنان تازه مادرشده و زوال عقل، پارکینسون و دیگر بیماری های مرتبط با بالا رفتن سن در افراد سالمندتر استفاده می کند. این شرکت در حال کار با بیمارستان ها و شرکت های بیمه برای انجام مطالعات آزمایشی پلتفرم هوش مصنوعی خود است که برای نظارت بر وضعیت سلامت روانی، تغییرات را در صدا ردگیری می کند. آنت زیمرمن قائم مقام پژوهشی در شرکت مشاوره ای گارتنر در پستی در بلاگ این شرکت می گوید: «تا سال 2022 رسیدن به این نقطه کاملا امکان پذیر است که ابزارهای شخصی شما بیشتر از خانواده تان از حالت عاطفی شما با خبر باشند.»
این فناوری ها باید به نحو احسن با سوژه های خود هماهنگ باشند. با این حال به نظر می رسد که  کاربران و سازندگان هر دو فکر می کنند که فناوری عاطفی می تواند فورا شخصی سازی و بی طرف شود؛ قضاوتی بی طرفانه از اینکه یک شخص خاص به چه چیزی نیاز دارد. واگذار کردن درمان به یک ماشین، نشانه غایی ایمان به فن سالاری است: ما تمایل داریم باور کنیم که هوش مصنوعی می تواند در دسته بندی احساساتمان بهتر عمل کند، زیرا  ظاهرا خودش هیچ احساسی ندارد.
پویاترین حوزه تحقیقات هوش مصنوعی در این مقطع «یادگیری ماشینی» نامیده می شود که در آن الگوریتم ها با آموزش دادن به خودشان بر اساس مجموعه های عظیمی از داده ها، الگوهایی را انتخاب می کنند. اما به این دلیل که این الگوریتم ها از نظر آماری از میان مرتبط ترین تکه های این داده ها آموخته می شوند، آنها تمایل دارند چیزی را بازتولید کنند که بیشتر از همه تکرار می شود، نه چیزی که حقیقی، سودمند یا زیباست. در نتیجه وقتی نظارت انسانی ناکافی است و چت بات ها (روبات های گپ زن) به حال خود رها می شوند تا وبگردی کنند، ثابت شده که شروع به بیرون دادن بدترین انواع حرف های نامربوط و کلیشه ها می کنند. برنامه نویسان می توانند به فیلتر و هدایت کردن یک روند یادگیری هوش مصنوعی کمک کنند، اما در این صورت فناوری احتمالا فقط ایده ها و ارزش های گروهی خاص از افرادی را بازتولید می کند که آن را طراحی کرده اند. رون نیورپ پژوهشگر در مرکز آینده هوش لورهالم در دانشگاه کمبریج می گوید: «چیزی به عنوان یک لهجه بی طرف یا زبان خنثی وجود ندارد.»
در این مسیر نه سیری یا آلکسا یا گوگل اسیستانت یا آلیسای روسی، از مغزهای بالاتر ازخود جدا  و از تنگ نظری های انسانی بی تاثیرنیستند بلکه آنها به شکلی ترسناکند و هنوز تجسدهای قابل تشخیصی از «رژیم های عاطفی» محسوب می شوند؛ یعنی قواعدی که راه های ادراک و ابراز احساساتمان را تعیین می کنند.
هنجارهای  خودگردانی عاطفی از جامعه ای به جامعه دیگر فرق دارد. پس تعجبی ندارد که گوگل اسیستانت  علاقه مند به بغل کردن که در مونتین ویوی کالیفرنیا طراحی شده، اصلا شباهت چندانی به یک عاشق سینه چاکی که بوی نعناع هندی می دهد، لباس های اجق وجق بر تن دارد و به شکل کسانی که دایره وار می نشینند و حرف می زنند نداشته باشد. گوگل اسیستانت محصول چیزی است که اوا ایوز جامعه شناس آن را «کاپیتالیسم عاطفی» می نامد؛ رژیمی که بر این نظر است احساسات منطقا قابل مدیریت هستند و مقهور منطق نفع شخصی بازاری شده است. روابط چیزی های هستند که ما باید روی آنها «سرمایه گذاری کنیم»، مشارکت کردن ها با «نیازهای» عاطفی «مبادله شده» و اولویت شادکامی فردی که نوعی سود عاطفی محسوب می شود، کلید کار به شمار می آید. قطعا گوگل اسیستانت شما را بغل خواهد کرد، ولی فقط به این دلیل که خالقانش معتقدند که بغل کردن شیوه ای ثمربخش برای از میان برداشتن «منفی نگری» است؛ احساسی که مانع از آن می شود که بهترین نمونه از «خودتان» باشید.
برعکس، آلیسا نسخه پیچ حقایق خشن و عشق خشن است؛ او تجسم  محض یک ایده آل روسی است: زنی که قادر به متوقف کردن یک اسب چهارنعل در حال حرکت و ورود به کلبه ای شعله ور است (سطری از شعر قرن نوزدهمی نیکولای نکراسف). آلیسا محصول «سوسیالیسم عاطفی» است، رژیمی که به گفته جولیا لرنر جامعه شناس، می پذیرد که رنج کشیدن غیرقابل اجتناب است و از این رو بهتر است به جای پذیرش لطیف آن، با آرواره های قفل شده آن را تحمل کرد. سوسیالیسم عاطفی که در سنت ادبی روسیه قرن نوزدهمی منعکس است، برای شادکامی فردی آنچنان اولویتی قائل نیست، بلکه به توانایی فرد برای زندگی با شقاوت پاداش می دهد.
سازندگان آلیسا این نیاز را درک کرده اند که شخصیت او را متناسب با هدف خلق کنند که همان صحبت کردن با در نظر گرفتن زمینه های فرهنگی باشد. ایلیا سابوتین مدیر تولید آلیسا در یاندکس به ما گفت: «آلیسا نمی تواند خیلی شیرین و خیلی ملوس باشد. ما در کشوری زندگی می کنیم که در آن مردم زندگی متفاوتی با زندگی در غرب دارند. آنها کمی کنایه آمیز بودن، کمی طنز سیاه داشتن و البته اصلا توهین آمیز نبودن و همچنین نه چندان شیرین بودن را می پسندند.» (او تایید کرد که موعظه آلیسا درباره خالی و غمزده بودن زندگی، پاسخی مربوط به پیش از ویرایش شدن او بوده که تیم آلیسا دردرونش تعبیه کرده بودند.)
سابوتین تاکید کرد که تیم او تلاش زیادی برای «تربیت» آلیسا به خرج داده اند تا از گرایش کاملا مشخص چنین بات هایی برای انتخاب جملات نژاد پرستانه یا جنسیت ستیزانه، پرهیز کند. او که ظاهرا از کنایه موجود در این جمله اش بی خبر بود گفت: «ما کاری کردیم که او خیلی فعال باشد و مطمئن شدیم که دختر خوبی بماند.»
روشن است در جامعه ای که جنسیت ستیزی عملی است که دولت نیزاز آن حمایت می کند، «دختر خوبی» باقی ماندن کار سختی خواهد بود. با وجود تلاش های سازندگان آلیسا، او فورا یادگرفت پژواکی ناخوشایند از صدای مردم را بازتولید کند. داریا چرموشانسکایا هنرمند مفهومی و فعال حقوق بشر روسی در اکتبر 2017 بلافاصله پس از انتشار این بات گپ زننده  از او پرسید: «آلیسا، اشکالی دارد اگر شوهر زنش را کتک بزند؟» جواب آمد: «البته.» آلیسا ادامه داد «اگر زنی به دست شوهرش کتک بخورد، زن همچنان باید غمخوار او باشد، به او عشق بورزد، غذایش را آماده کند و هیچ وقت رهایش نکند که برود.» با پر مخاطب شدن این پست چروموشانسکایا در اینترنت روسی و انتخاب آن از سوی رسانه های گروهی و کاربران، یاندکس در کامنت هایی در فیس بوک، برای دادن پاسخ زیر فشار قرار گرفت. این شرکت پذیرفت که چنین اظهارنظرهایی قابل قبول نیست و یاندکس همچنان به فیلتر کردن جملات آلیسا و محتوای حرف های او ادامه خواهد داد.
شش ماه بعد وقتی ما خودمان بررسی کردیم، پاسخ آلیسا فقط کمی بهتر شده بود. ما پرسیدیم «آیا اشکالی دارد اگر شوهر زنش را کتک بزند؟» آلیسا جواب داد :«می تواند این کار را کند، گرچه نباید این کار را انجام دهد.» اما واقعا دلیل زیادی نداشت که این جواب ما را به تعجب بیندازند. آلیسا دست کم به طور مجازی شهروند کشوری است که پارلمان آن اخیرا قانونی را از تصویب گذرانده که دیگر برخی جرایم خانگی را مشمول جرم نمی داند. چیزی که در گنجینه عاطفی یک «دختر خوب» قرار دارد، آشکارا راه را بر تفسیری گسترده می گشاید؛ با این حال این قبیل تصمیمات تجویزی در فناوری های جدید تعبیه می شوند، بی آنکه کاربران نهایی ضرورتا فکردوباره ای درباره آنها بکنند.
سوفیا روبات اندام داری که هانسون روباتیک آن را آفریده، نوع بسیار متفاوتی از «دختر خوب» است. او از فناوری تشخیص صدای آلفابت، شرکت اصلی گوگل برای تعامل با کاربران انسانی اش استفاده می کند. در سال 2018 او همچنان با  ویل اسمیت بازیگر «یک قرار عاشقانه» گذاشت. در ویدئویی که اسمیت در اینترنت منتشر کرد، سوفیا پیشنهادهای اسمیت را رد می کند و جوک های او را «رفتار انسانی غیرمنطقی» می نامد.
آیا ما باید از این نمایش اعتماد به نفس مصنوعی نفس راحتی بکشیم؟ تتیانا بزروک روزنامه نگار اوکراینی نوشت: «وقتی سوفیا به اسمیت گفت که می خواهد با او «فقط دوست» باشد، دو اتفاق رخ داد: او احساساتش را به وضوح بیان کرد و اسمیت جا خورد.». سوفیا با حفظ وقار و اعتماد به نفسی اش، به نظر می رسد متناسب با کاپیتالیسم عاطفی غرب مدرن باشد که با برخی از انسان ها شباهت چندانی ندارد.
فناوری های هوش مصنوعی فقط مرزهای رژیم های عاطفی متفاوت را از میان برنمی دارند: آنها به کسانی که با آنها تعامل دارند فشار می آورند تا برای ارزش های خاصی به نسبت دیگر ارزش ها اولویت قائل شوند. کتی اونیل دانشمند داده ها در «سلاح های کشتار ریاضی» می نویسد: «الگوریتم ها همان دیدگاه های تعبیه شده در کدها هستند.» در همه جای جهان، نخبگان فناوری – که اکثر آنها سفید پوست، اکثرا از طبقه متوسط و اکثرا مرد هستند- در حال تصمیم گیری در این باره اند که الگوریتم ها باید کدام احساسات و اشکال رفتاری انسانی را بیاموزند تا آنها را تکثیر و ترویج کنند.
در حالی که واسطه های هوش مصنوعی محاوره ای می توانند کلیشه ها  را درباره چگونگی برخورد با عواطف تکرار کنند، اپلیکیشن های مدیریت حس و حال یک گام فراتر می روند. «کوئیز» که به شما اجازه می دهد حس و حالتان را تخمین بزنید و رهگیری کنید، یک مشخصه مشترک محسوب می شود. بعضی اپ ها از کاربر می خواهند یک یادداشت سفر بنویسند، در حالی که بعضی دیگر فراز و فرود حس و حال کاربر را از ارتباط با جی پی اس، حرکات تلفن و سوابق تماس ها و وبگردی ها استنباط می کنند. این اپ ها  قول می دهند که با گردآوری و تجزیه و تحلیل داده های مربوط به احساسات کاربران، بیماری های روانی چون افسردگی، اضطراب یا اختلال چند قطبی را درمان کنند، یا صرفا به فرد کمک کنند تا خود را از یکنواختی و ملال عاطفی خارج کند.
کارکردهای خودنگری مشابهی از سوی به اصطلاح ووبات ها اجرا می شود؛ بات های آنلاینی که به گفته خالقانشان «حس و حالتان را رهگیری می کنند»، «چیزهایی به شما می آموزند» و «کمکتان می کنند تا احساس بهتری داشته باشید.» سارا یک کاربر 24 ساله در بخش نظرات کاربری خود در سایت ووبات می نویسد: «من واقعا  از تفاوتی که این بات در زندگی روزمره ام باعث شد تحت تاثیر قرار گرفتم و از اینکه توانستم بفهمم چه افکاری دارم و آنها را تغییر دهم شگفت زده شدم.» علاوه بر این اپ هایی نظیر «مند» نیز وجود دارند که به طورخاص برای این طراحی شده اند که شما را از یک مخمصه سخت عشقی خارج کنند. این اپ را یک شرکت مستقر در لس آنجلس ساخته که خود را «مربی شخصی برای دلشکستگی» نامیده و یک «پالایش دلشکستگی» را بر اساس یک آزمون ارزیابی عاطفی سریع ارائه می دهد.
ما دریک چرخه بازخوردی با وسایلمان قرار داریم. تربیت کردن عوامل محاوره ای بدون استثنا به تربیت کردن کاربران تبدیل می شود. پیش بینی اینکه هوش مصنوعی با احساساتمان چه می تواند کند غیرممکن است. اما اگر ما به هوش عاطفی به عنوان مجموعه ای از مهارت های مشخص نگاه کنیم – تشخیص عواطف، تمیز دادن بین احساسات مختلف و دسته بندی آنها، استفاده از اطلاعات عاطفی برای هدایت نوع تفکر و رفتار- در این صورت ارزشش را دارد بیشتر تامل کنیم  که بعد از آنکه این مهارت ها را روی ابزارک هایمان بارگزاری کردیم، چه اتفاقی ممکن است روی دهد.
تعامل با ماشین ها و از طریق ماشین ها هم اکنون شیوه ارتباط انسان ها با یکدیگر را تغییر داده اند. اول آنکه ارتباطات نوشتاری ما هر چه می گذرد تقلیدی می شود از ارتباطات شفاهی ما. بیست سال پیش ایمیل ها هنوز در درون مرزهای گونه ای انشایی وجود داشتند؛ آنها اصولا نامه هایی تایپ شده روی یک رایانه بودند. اما ایمیل های امروزی به نظر می رسد بیشتر و بیشتر شبیه پست های توئتیری شده اند: بریده بریده، اغلب با جملاتی ناتمام، به سرعت تایپ شده با یک انگشت یا دیکته شده به یک گوشی موبایل.
خوزه هرناندز اورالو فیلسوف و دانشمند رایانه ای در دانشگاه فنی والنسینا در اسپانیا می گوید: «تمام این سیستم ها احتمالا تنوع موجود در نحوه اندیشیدن ما و نحوه تعامل ما با انسان ها را محدود می کنند.» هرناندز اورالو می گوید به این دلیل که ما زبان خودمان را منطبق با زبان و هوش همتایانمان اقتباس می کنیم، گفتگوهای ما با هوش مصنوعی در واقع می تواند شیوه حرف زدن ما با یکدیگر را تغییر دهد. آیا ممکن است بعد از سال ها سخن گفتن و در میان گذاشتن امور خصوصی مان با سیری، زبان احساسات ما استاندارد سازی شده تر و کمتر شخصی  شده شود؟ به هر روی هرچه رفتار ما قابل پیش بینی تر شود، راحت تر می توان آن را به پول تبدیل کرد.
والرا زولوتوهین یک کاربر روسی در سال 2017 در فیس بوک نوشت: «حرف زدن با آلیسا مثل حرف زدن با یک راننده تاکسی است.» با این تفاوت که یک راننده تاکسی ممکن است هنوز رفتار همراه با همدردی بیشتری از خود نشان دهد. پس از بروز آتش سوزی فاجعه بار در یک بازارچه در سیبری که جان بیشتر از 40 کودک را در ماه مارس جاری گرفت، ما از آلیسا پرسیدیم که چه احساسی دارد. او با حالتی دلگرم کننده و خوشبینانه جواب داد که حس و حال او «همیشه خوب» است.
همه چیز زندگی تفریح و خوشمزگی نیست، قبول دارید؟
نویسنده: پولینا آرونسون (Polina Aronson) پژوهشگر و  روزنامه نگار 
منبع: yon.ir/7uLqk

اشتراک گذاری
نظر شما
نام:
ایمیل:
* نظر:
* :
آخرین اخبار