چرا شباهت بین هوش مصنوعی و ذهن انسان ترسناک است؟
من و فیلسوف شانون والور در کتابخانهی بریتانیا در لندن هستیم، خانهی ۱۷۰ میلیون اثر - کتاب، ضبط صوت، روزنامه، نسخههای خطی و نقشه. به عبارت دیگر، ما در مکانی صحبت میکنیم که رباتهای گفتگوی هوش مصنوعی امروزی مانند ChatGPT برای تغذیه به آن مراجعه میکنند.
ما که در بالکن کافهی کتابخانه نشستهایم، به معنای واقعی کلمه در سایهی موسسهی کریک، مرکز تحقیقات زیستپزشکی که در آن درونیترین مکانیسمهای بدن انسان مورد مطالعه قرار میگیرد، هستیم. اگر از اینجا سنگی را از روی ایستگاه راهآهن سنت پانکراس پرتاب کنیم، ممکن است به دفتر مرکزی گوگل در لندن، شرکتی که والور قبل از رفتن به اسکاتلند برای ریاست مرکز آیندههای تکنومورال در دانشگاه ادینبورگ، به عنوان متخصص اخلاق هوش مصنوعی در آن کار میکرد، برخورد کند.
در اینجا، والور که بین اسرار انسان، گنجینههای شناختی نهفته در زبان انسان و تکبر بیباک هوش مصنوعی تجاری قرار گرفته است، به من کمک میکند تا همه چیز را درک کنم. آیا هوش مصنوعی تمام مشکلات ما را حل خواهد کرد یا ما را منسوخ میکند، شاید تا مرز انقراض؟ هر دو احتمال، تیترهای نفسگیری را ایجاد کردهاند. والور وقت کمی برای هر یک از آنها دارد.
او پتانسیل عظیم هوش مصنوعی را برای مفید و مخرب بودن تصدیق میکند، اما فکر میکند که خطر واقعی در جای دیگری نهفته است. همانطور که او در کتاب خود در سال ۲۰۲۴ با عنوان "آینهی هوش مصنوعی" توضیح میدهد، هم تصور رؤیایی مبنی بر اینکه هوش مصنوعی مانند ما فکر میکند و هم خیالپردازی پارانوئید مبنی بر اینکه به عنوان یک دیکتاتور بدخواه ظاهر میشود، یک خویشاوندی ساختگی با انسانها را به قیمت ایجاد یک دیدگاه سادهلوحانه و سمی در مورد نحوهی عملکرد ذهن خودمان، ادعا میکند. این دیدگاهی است که میتواند ما را تشویق کند تا عاملیت خود را رها کنیم و از خرد خود به نفع ماشینها چشمپوشی کنیم.
وقتی انسانها به عنوان ماشینهای بیذهن دیده میشوند، ادعای خویشاوندی بین ماشینها و انسانها آسان است.
با خواندن "آینهی هوش مصنوعی" تحت تأثیر عزم والور برای بررسی عمیقتر از فهرست معمول نگرانیها در مورد هوش مصنوعی قرار گرفتم: حریم خصوصی، اطلاعات نادرست و غیره. کتاب او در واقع گفتمانی در مورد رابطهی انسان و ماشین است که زنگ خطر را در مورد چگونگی تبلیغ نسخهی تحریفشدهای از آنچه هستیم توسط صنعت فناوری به صدا در میآورد، نسخهای که انسان را در لباس یک کامپیوتر نرم و مرطوب بازآفرینی میکند.
اگر این تلخ به نظر میرسد، والور قطعا اینطور نیست. او بینش عمیق بهدستآمده از دیدن صنعت از درون را همراه با پایهای در فلسفهی علم و فناوری به آرامی حمل میکند. او هیچ مبارزی علیه تجارت هوش مصنوعی نیست و با گرمی از دوران خود در گوگل صحبت میکند و در عین حال به برخی از پوچهای سیلیکون ولی میخندد. اما وضوح و صداقت اخلاقی و فکری که او به مسائل میآورد، به سختی میتواند تضاد بیشتری با تکبر سطحی و بیتجربهی معمول برادران فناوری ضربالمثلی ارائه دهد.
والور به من میگوید: "ما در برههای از تاریخ هستیم که باید اعتماد خود را به تواناییهای انسان برای استدلال عاقلانه، برای تصمیمگیری جمعی، بازسازی کنیم. ما نمیتوانیم با بحران آب و هوا یا شکستگی پایههای دموکراسی مقابله کنیم، مگر اینکه بتوانیم اعتماد به تفکر و قضاوت انسان را دوباره تأیید کنیم. و همه چیز در دنیای هوش مصنوعی بر خلاف آن عمل میکند."
هوش مصنوعی به عنوان یک آینه
برای درک الگوریتمهای هوش مصنوعی، والور استدلال میکند که نباید آنها را به عنوان ذهن در نظر بگیریم. او به من میگوید: "ما بیش از یک قرن توسط داستانهای علمی تخیلی و تصورات فرهنگی از هوش مصنوعی آموزش دیدهایم که انتظار داشته باشیم وقتی از راه میرسد، یک ذهن ماشینی باشد. اما چیزی که ما داریم از نظر ماهیت، ساختار و عملکرد کاملا متفاوت است."
در عوض، باید هوش مصنوعی را به عنوان یک آینه تصور کنیم، که چیزی را که منعکس میکند، کپی نمیکند. والور میگوید: "وقتی برای مسواک زدن به حمام میروید، میدانید که صورت دومی به شما نگاه نمیکند. این فقط انعکاس یک صورت است و خواص بسیار متفاوتی دارد. گرما ندارد؛ عمق ندارد." به طور مشابه، انعکاس یک ذهن، ذهن نیست. رباتهای گفتگوی هوش مصنوعی و مولدهای تصویر مبتنی بر مدلهای زبانی بزرگ، صرفاً آینهای از عملکرد انسان هستند. "با ChatGPT، خروجی که میبینید انعکاس هوش انسانی، ترجیحات خلاقانهی ما، تخصص کدنویسی ما، صداهای ما - هر چیزی که ما وارد میکنیم - است."
والور میگوید، حتی متخصصان نیز در این تالار آینهها فریب میخورند. جفری هینتون، دانشمند کامپیوتری که جایزهی نوبل فیزیک امسال را به خاطر کار پیشگامانهاش در توسعهی تکنیکهای یادگیری عمیق که LLMها را ممکن کرد، به اشتراک گذاشت، در کنفرانسی در مورد هوش مصنوعی در سال ۲۰۲۴ گفت که "ما زبان را تقریباً به همان روشی که این مدلهای زبانی بزرگ درک میکنند، درک میکنیم."
هینتون متقاعد شده است که این اشکال هوش مصنوعی فقط کورکورانه متن را در الگوهایی که برای ما معنادار به نظر میرسند، تکرار نمیکنند. آنها حس خاصی از معنای کلمات و مفاهیم خود ایجاد میکنند. یک LLM با اجازه دادن به آن برای تنظیم اتصالات در شبکه عصبی خود تا زمانی که به طور قابل اعتمادی پاسخهای خوبی ارائه دهد، آموزش داده میشود، فرآیندی که هینتون آن را با "والدین بودن برای یک کودک فوقالعاده زودرس" مقایسه کرد. اما از آنجایی که هوش مصنوعی میتواند بسیار بیشتر از ما "بداند" و بسیار سریعتر "فکر" کند، هینتون نتیجه میگیرد که ممکن است در نهایت جایگزین ما شود: او در کنفرانس بررسی فناوری MIT در سال ۲۰۲۳ گفت: "کاملاً قابل تصور است که بشریت فقط یک مرحلهی گذرا در تکامل هوش باشد."
متخصص اخلاق هوش مصنوعی: شانون والور در مورد چگونگی تبلیغ نسخهی تحریفشدهای از انسانها توسط صنعت فناوری زنگ خطر را به صدا در میآورد. اگر این تلخ به نظر میرسد، والور قطعا اینطور نیست. او بینش عمیق بهدستآمده از دیدن صنعت از درون را همراه با پایهای در فلسفهی علم به آرامی حمل میکند. عکس از کالوم بنتس - آژانس عکس ماوریک.
والور میگوید: "هینتون وقتی شروع به صحبت در مورد دانش و تجربه میکند، خیلی از اسکیهایش دور میشود. ما میدانیم که مغز و یک مدل یادگیری ماشینی فقط از نظر ساختار و عملکرد به طور سطحی مشابه هستند. از نظر آنچه در سطح فیزیکی اتفاق میافتد، تفاوت فاحشی وجود دارد که ما هر دلیلی برای فکر کردن داریم که این تفاوت ایجاد میکند." اصلا هیچ خویشاوندی واقعی وجود ندارد.
من به والور میگویم که موافقم که ادعاهای آخرالزمانی زمان پخش زیادی دریافت کردهاند. اما برخی از محققان میگویند که LLMها "شناختیتر" میشوند: گفته میشود که جدیدترین ربات گفتگوی OpenAI، مدل o1، از طریق یک سری مراحل زنجیرهای استدلال کار میکند (حتی اگر این شرکت آنها را فاش نکند، بنابراین ما نمیتوانیم بدانیم که آیا آنها شبیه استدلال انسان هستند یا خیر). و هوش مصنوعی مطمئناً ویژگیهایی دارد که میتوان آنها را جنبههایی از ذهن در نظر گرفت، مانند حافظه و یادگیری. ملانی میچل، دانشمند کامپیوتر و دیوید کراکائر، نظریهپرداز پیچیدگی، پیشنهاد کردهاند که اگرچه نباید این سیستمها را به عنوان ذهنهایی مانند ذهن خودمان در نظر بگیریم، اما ممکن است آنها را ذهنهایی از نوع کاملاً متفاوت و ناآشنا در نظر بگیریم.
هوش مصنوعی در برابر انسان
من به والور میگویم که نسبت به این رویکرد کاملاً بدبین هستم. این رویکرد ممکن است در آینده مناسب باشد، و من در اصل با این ایده که ممکن است ذهنهای ماشینی بسازیم مخالف نیستم. من فقط فکر نمیکنم که این کاری باشد که ما در حال حاضر انجام میدهیم.
مقاومت والور در برابر ایدهی هوش مصنوعی به عنوان یک ذهن، از پیشینهی او در فلسفه ناشی میشود، جایی که ذهنیت ریشه در تجربه دارد: دقیقاً همان چیزی که هوش مصنوعی امروزی فاقد آن است. در نتیجه، او میگوید، صحبت کردن در مورد این ماشینها به عنوان تفکر مناسب نیست.
دیدگاه او با مقالهی سال ۱۹۵۰ آلن تورینگ، ریاضیدان و پیشگام کامپیوتر بریتانیایی، با عنوان "ماشینهای محاسباتی و هوش"، که اغلب به عنوان بنیان مفهومی هوش مصنوعی در نظر گرفته میشود، در تضاد است. تورینگ این سوال را مطرح کرد: "آیا ماشینها میتوانند فکر کنند؟" - فقط برای جایگزینی آن با آنچه که او سوال بهتری میدانست، این بود که آیا میتوانیم ماشینهایی را توسعه دهیم که بتوانند به سوالاتی که نمیتوانیم از پاسخهای انسانها تشخیص دهیم، پاسخ دهند. این "بازی تقلید" تورینگ بود که اکنون معمولاً به عنوان آزمون تورینگ شناخته میشود.
اما والور میگوید، تقلید تمام چیزی است که وجود دارد. "برای من، تفکر مجموعهای خاص و نسبتاً منحصر به فرد از تجربیاتی است که ما داریم. تفکر بدون تجربه مانند آب بدون هیدروژن است - شما چیزی را حذف کردهاید که هویت خود را از دست میدهد."
والور میگوید، استدلال به مفاهیم نیاز دارد، و LLMها واقعاً آنها را توسعه نمیدهند. "هر چیزی را که در یک LLM مفهوم مینامیم، در واقع چیز متفاوتی است. این یک نگاشت آماری از تداعیها در یک فضای برداری ریاضی با ابعاد بالا است. از طریق این نمایش، مدل میتواند خط دید به راهحل را به دست آورد که کارآمدتر از یک جستجوی تصادفی است. اما اینطور نیست که ما فکر میکنیم."
با این حال، آنها در تظاهر به استدلال بسیار خوب هستند. "ما میتوانیم از مدل بپرسیم، "چگونه به این نتیجه رسیدید؟" و این فقط یک زنجیرهی کامل از افکار را به هم میریزد که اگر روی آن فشار بیاورید، خیلی سریع به مزخرف تبدیل میشود. این به شما میگوید که این یک رشتهی فکری نبود که ماشین دنبال کرده و به آن متعهد باشد. این فقط یک توزیع احتمالی دیگر از اشکال شبیه به استدلال است که به طور مناسب با خروجی که تولید کرده است مطابقت دارند. این کاملاً پسینی است."
در برابر ماشین انسانی
دام اصرار بر خویشاوندی ساختگی بین ذهن انسان و ماشین را میتوان از همان روزهای اولیهی هوش مصنوعی در دههی ۱۹۵۰ تشخیص داد. و این چیزی است که من را بیشتر در مورد آن نگران میکند، به والور میگویم. اینطور نیست که قابلیتهای سیستمهای هوش مصنوعی در مقایسه بیش از حد برآورد شده باشد، بلکه به این دلیل است که نحوهی کار مغز انسان توسط آن بسیار کاهش مییابد.
او موافق است: "این بزرگترین نگرانی من است." والور میگوید، هر بار که سخنرانی میکند و اشاره میکند که الگوریتمهای هوش مصنوعی واقعاً ذهن نیستند، "کسی در بین حضار به سراغ من میآید و میگوید: "خب، حق با شماست، اما فقط به این دلیل که در نهایت ذهن ما نیز این کارها را انجام نمیدهد - ما واقعاً منطقی نیستیم، ما واقعاً مسئول آنچه باور داریم نیستیم، ما فقط ماشینهای پیشبینیکنندهای هستیم که کلماتی را که مردم انتظار دارند بیرون میاندازند، ما فقط الگوها را مطابقت میدهیم، ما فقط کاری را انجام میدهیم که یک LLM انجام میدهد.""
هینتون پیشنهاد کرده است که یک LLM میتواند احساساتی داشته باشد. والور میگوید: "شاید دقیقاً مانند ما نباشد، اما به معنای کمی متفاوت." "و سپس متوجه میشوید که او این کار را فقط با حذف مفهوم احساسات از هر چیزی که توسط انسان تجربه میشود و تبدیل آن به یک واکنش رفتاری انجام داده است. این ابتداییترین نظریههای قرن بیستمی در مورد ذهن انسان را به عنوان حقیقت پایه در نظر میگیرد. از آنجا ادعای خویشاوندی بین ماشینها و انسانها بسیار آسان میشود زیرا شما قبلاً انسان را به یک ماشین بیذهن تبدیل کردهاید."
با مفهوم بسیار ستایششدهی هوش مصنوعی عمومی (AGI) است که این مشکلات شروع به حاد شدن میکنند. AGI اغلب به عنوان هوشی ماشینی تعریف میشود که میتواند هر عملکرد هوشمندی را که انسان میتواند انجام دهد، اما بهتر انجام دهد. برخی معتقدند که ما قبلاً در آن آستانه هستیم. به جز اینکه، برای بیان چنین ادعاهایی، باید هوش انسانی را به عنوان زیرمجموعهای از آنچه انجام میدهیم، تعریف کنیم.
والور میگوید: "بله، و این یک استراتژی بسیار عمدی برای منحرف کردن توجه از این واقعیت است که ما AGI نساختهایم و به آن نزدیک نیستیم."
فرهنگ سیلیکون ولی ویژگیهای مذهب را دارد. این فرهنگ توسط شواهد متقابل یا استدلال متزلزل نمیشود.
در ابتدا، AGI به معنای چیزی بود که هیچ چیز از آنچه ذهن انسان میتواند انجام دهد را از دست نمیدهد - چیزی که در مورد آن شکی نداریم که در حال تفکر و درک جهان است. اما در کتاب آینهی هوش مصنوعی، والور توضیح میدهد که متخصصانی مانند هینتون و سام آلتمن، مدیرعامل OpenAI، شرکتی که ChatGPT را ایجاد کرده است، اکنون AGI را به عنوان سیستمی تعریف میکنند که در محاسبه، پیشبینی، مدلسازی، تولید و حل مسئله برابر یا بهتر از انسان است.
والور میگوید: "در واقع، آلتمن "دروازهها را جابهجا کرد و گفت که منظور ما از AGI ماشینی است که در واقع میتواند تمام وظایف ارزشمند اقتصادی را که انسانها انجام میدهند، انجام دهد." این یک دیدگاه رایج در جامعه است. مصطفی سلیمان، مدیرعامل مایکروسافت هوش مصنوعی، نوشته است که هدف نهایی هوش مصنوعی "تقطیر جوهرهی چیزی است که ما انسانها را تا این حد مولد و توانمند میکند به نرمافزار، به یک الگوریتم"، که او آن را معادل توانایی "تکرار همان چیزی میداند که ما را به عنوان یک گونه منحصر به فرد میکند، هوش ما."
والور میگوید، وقتی تغییر چارچوب AGI توسط آلتمن را دیدم، "باید لپتاپ را میبستم و به مدت نیم ساعت به فضا خیره میشدم. اکنون تمام چیزی که ما برای هدف AGI داریم چیزی است که رئیستان میتواند شما را با آن جایگزین کند. میتواند به بیذهنی یک توستر باشد، تا زمانی که بتواند کار شما را انجام دهد. و این همان چیزی است که LLMها هستند - آنها توسترهای بیذهنی هستند که بدون فکر کردن کارهای شناختی زیادی انجام میدهند."
من این نکته را با والور بررسی میکنم. داشتن هوش مصنوعی که بتواند ما را در شطرنج شکست دهد یک چیز است - اما اکنون الگوریتمهایی داریم که نثرهای قانعکننده مینویسند، چتهای جذابی دارند، موسیقی میسازند که برخی را فریب میدهد که فکر کنند توسط انسان ساخته شده است. مطمئناً، این سیستمها میتوانند نسبتاً محدود و ملایم باشند - اما آیا آنها به طور فزایندهای به وظایفی که ممکن است به عنوان منحصر به فرد انسان در نظر بگیریم، تجاوز نمیکنند؟
او میگوید: "اینجاست که استعارهی آینه مفید میشود. تصویر آینه میتواند برقصد. یک آینهی به اندازهی کافی خوب میتواند جنبههایی از خودتان را که عمیقاً انسانی هستند به شما نشان دهد، اما تجربهی درونی آنها را نشان نمیدهد - فقط عملکرد." او در مورد هنر هوش مصنوعی میافزاید: "نکتهی مهم این است که بدانیم هیچ چیز در طرف دیگر در این ارتباط شرکت نمیکند."
آنچه ما را گیج میکند این است که میتوانیم در پاسخ به یک "اثر هنری" تولید شده توسط هوش مصنوعی احساساتی داشته باشیم. اما این تعجبآور نیست زیرا ماشین در حال انعکاس جایگشتهای الگوهایی است که انسانها ساختهاند: موسیقی شبیه شوپن، نثر شبیه شکسپیر. و پاسخ احساسی به نوعی در محرک رمزگذاری نشده است، بلکه در ذهن خودمان ساخته میشود: تعامل با هنر بسیار کمتر از آنچه تصور میکنیم منفعل است.
اما فقط مربوط به هنر نیست. والور میگوید: "ما معناآفرین و معناآفرین هستیم، و این تا حدی چیزی است که به ما آزادیهای شخصی، خلاقانه و سیاسی میدهد. ما در الگوهایی که هضم کردهایم قفل نشدهایم، اما میتوانیم آنها را در اشکال جدید مرتب کنیم. ما این کار را زمانی انجام میدهیم که ادعاهای اخلاقی جدیدی را در جهان مطرح میکنیم. اما این ماشینها فقط همان الگوها و اشکال را با تغییرات آماری جزئی دوباره به گردش در میآورند. آنها ظرفیت معناآفرینی ندارند. این اساساً شکافی است که مانع از آن میشود که ما در ادعای خویشاوندی واقعی با آنها توجیه شویم."
بعضیها واقعاً فکر میکنند دوران تصمیمگیری انسان رو به پایان است. این برای من وحشتناک است.
در سیلیکون ولی، کارایی هدف نهایی است. به قول والور: «هدف، رسیدن به وضعیتی است که مسئله حل شده و دیگر هیچ اصطکاکی، هیچ ابهامی و هیچ چیز ناگفته یا انجامنشدهای وجود ندارد. شما بر مسئله مسلط شدهاید و آن را از بین بردهاید و تنها چیزی که باقی میماند، راهحل بینقص و درخشان شماست. این ایدئولوژی هوش مصنوعی است؛ چیزی که میخواهد کارِ فکر کردن را از میان بردارد.»
والور برایم تعریف کرد که یک بار سعی کرده به یکی از رهبران حوزه هوش مصنوعی عمومی (AGI) توضیح دهد که عدالت، راهحل ریاضی ندارد. والور میگوید: «به او گفتم ماهیت عدالت این است که ما ارزشها و منافع متعارضی داریم که نمیتوان آنها را در یک مقیاس واحد سنجید و کارِ تعمق، مذاکره و تجدیدنظر انسانی ضروری است. و او به من گفت: "فکر میکنم این فقط یعنی تو در ریاضی بدی." در مقابل چنین حرفی چه میتوان گفت؟ این دو جهانبینی هیچ نقطه اشتراکی ندارند. شما با دو برداشت کاملاً متفاوت از واقعیت روبرو هستید.»
خطر واقعی
والور خطرات هوش مصنوعیِ قدرتمندتر برای جوامع ما، از حریم خصوصی گرفته تا اطلاعات نادرست و بیثباتی سیاسی، را دست کم نمیگیرد. اما نگرانی اصلی او در حال حاضر این است که هوش مصنوعی با تصور ما از خودمان چه میکند.
والور میگوید: «فکر میکنم هوش مصنوعی تهدیدی قریبالوقوع برای اهمیت وجودی زندگی بشر است. هوش مصنوعی از طریق خودکارسازی روشهای تفکر ما و از طریق روایتی که پیرامون آن ساخته میشود، درک ما از خودمان بهعنوان موجوداتی هوشمند، مسئول و آزاد در جهان را تضعیف میکند. میتوانید این را در لفاظیهای اقتدارگرایانهای که میخواهند محرومیت انسانها از حکومت بر خود را توجیه کنند، بیابید. هوش مصنوعی به این داستان، جانی دوباره بخشیده است.»
او میگوید که بدتر از آن، این روایت بهعنوان داستانی عینی، بیطرف و فارغ از سیاست ارائه میشود: این فقط علم است. «با افرادی مواجه میشوید که واقعاً فکر میکنند زمان عاملیت انسان به پایان رسیده است، دوران تصمیمگیری انسان رو به افول است – و این چیز خوبی است و صرفاً یک واقعیت علمی است. این برای من وحشتناک است. به ما گفته میشود که قدم بعدی این است که هوش مصنوعی عمومی قرار است چیزی بهتر بسازد. و من فکر میکنم افراد بسیار بدبینی وجود دارند که معتقدند این حقیقت دارد و به این باور که در حال ایجاد جانشینان ماشینی خود هستند، نوعی آرامش مذهبی مییابند.»
والور نمیخواهد پیشرفت هوش مصنوعی متوقف شود. او میگوید که هوش مصنوعی واقعاً میتواند به حل برخی از مشکلات جدی ما کمک کند. «هنوز کاربردهای عظیمی برای هوش مصنوعی در پزشکی، در بخش انرژی و در کشاورزی وجود دارد. من میخواهم هوش مصنوعی به پیشرفت خود به شیوهای عاقلانه، هدایتشده و مدیریتشده ادامه دهد.»
به همین دلیل است که واکنش شدید علیه آن، هرچند قابل درک باشد، میتواند در درازمدت مشکلساز شود. والور میگوید: «میبینم که بسیاری از مردم علیه هوش مصنوعی برمیگردند. این [مخالفت] در بسیاری از محافل خلاق به نفرتی شدید تبدیل میشود. این جوامع حدود سه سال پیش، زمانی که مدلهای زبانی بزرگ و مدلهای تصویر شروع به ظهور کردند، در نگرش خود بسیار متعادلتر بودند. افراد زیادی میگفتند: "این کمی جالب است." اما رویکرد صنعت هوش مصنوعی نسبت به حقوق و عاملیت خالقان آثار هنری بهقدری استثمارگرانه بوده است که اکنون میبینید که افراد خلاق میگویند: "لعنت به هوش مصنوعی و هر کسی که به آن وابسته است، اجازه ندهید به هیچ وجه به کار خلاقانه ما نزدیک شود." من نگران این هستم که این نگرش واکنشی به مضرترین اشکال هوش مصنوعی، به بیاعتمادی عمومی به آن بهعنوان مسیری برای حل هر نوع مشکلی، گسترش یابد.»
والور میگوید: «در حالی که من هنوز میخواهم هوش مصنوعی را ترویج کنم، اغلب خود را در اردوگاه افرادی میبینم که به دلایلی کاملاً مشروع، خشمگینانه علیه آن هستند.» او اذعان میکند که این شکاف، بخشی از «جدایی مصنوعی میشود که مردم اغلب به آن بین انسانیت و فناوری چسبیدهاند.» او میگوید چنین تمایزی «بهطور بالقوه بسیار مخرب است، زیرا فناوری برای هویت ما اساسی است. ما از قبل از اینکه انسان خردمند باشیم، موجوداتی فناور بودهایم. ابزارها، وسیلهای برای رهایی، آفرینش، و راههای بهتر برای مراقبت از یکدیگر و سایر موجودات زنده در این سیاره بودهاند و من نمیخواهم این را رها کنم، نمیخواهم این شکاف مصنوعی بین انسانیت و ماشینها را تقویت کنم. فناوری در هسته خود میتواند فعالیتی به انسانی هر فعالیت دیگری باشد. ما فقط این ارتباط را از دست دادهایم.»
به همین دلیل، واکنش منفی علیه هوش مصنوعی، هرچند قابل درک باشد، میتواند در درازمدت مشکلساز شود. والور میگوید: «میبینم که بسیاری از مردم علیه هوش مصنوعی موضع میگیرند. این موضوع در بسیاری از حلقههای خلاق به نفرتی شدید تبدیل میشود. همین سه سال پیش، وقتی مدلهای زبانی بزرگ و مدلهای تصویرسازی شروع به ظهور کردند، این جوامع در نگرش خود بسیار متعادلتر بودند. افراد زیادی میگفتند: "این چیز جالبی است". اما رویکرد صنعت هوش مصنوعی به حقوق و اختیارات خالقان آثار هنری به قدری استثمارگرانه بوده که حالا میبینید افراد خلاق میگویند: "لعنت به هوش مصنوعی و هر کسی که به آن وابسته است، نگذارید به هیچ وجه به کارهای خلاقانه ما نزدیک شود." نگرانم که این واکنش منفی به مضرترین اشکال هوش مصنوعی به بیاعتمادی عمومی نسبت به آن به عنوان راه حلی برای هر نوع مشکلی گسترش یابد.»
والور با وجود اینکه هنوز هم میخواهد هوش مصنوعی را ترویج دهد، میگوید: «اغلب اوقات خود را در اردوگاه افرادی میبینم که به دلایلی کاملاً موجه، با خشم علیه آن موضع میگیرند.» او اذعان میکند که این شکاف، بخشی از «جدایی مصنوعی میشود که مردم اغلب بین انسانیت و فناوری به آن چنگ میزنند.» او میگوید چنین تمایزی «به طور بالقوه بسیار مخرب است، زیرا فناوری برای هویت ما اساسی است. ما از قبل از اینکه هوموساپینس باشیم، موجوداتی فناور بودهایم. ابزارها وسیلهی رهایی ما، خلق کردن، و راههای بهتر برای مراقبت از یکدیگر و سایر موجودات زنده در این سیاره بودهاند، و من نمیخواهم این را رها کنم، تا این شکاف مصنوعی بین انسانیت و ماشینها را تقویت کنم. فناوری در هستهی خود میتواند به اندازهی هر چیز دیگری فعالیتی انسانی باشد. ما فقط این ارتباط را از دست دادهایم.»
فیلیپ بال
نویسندهای آزادکار ساکن لندن و نویسندهی کتابهای متعددی دربارهی علم و تعاملات آن با فرهنگ گستردهتر است. آخرین کتاب او «چگونه زندگی کار میکند» نام دارد.
دیدگاه خود را بنویسید