چرا شباهت بین هوش مصنوعی و ذهن انسان ترسناک است؟

من و فیلسوف شانون والور در کتابخانه‌ی بریتانیا در لندن هستیم، خانه‌ی ۱۷۰ میلیون اثر - کتاب، ضبط صوت، روزنامه، نسخه‌های خطی و نقشه. به عبارت دیگر، ما در مکانی صحبت می‌کنیم که ربات‌های گفتگوی هوش مصنوعی امروزی مانند ChatGPT برای تغذیه به آن مراجعه می‌کنند.
ما که در بالکن کافه‌ی کتابخانه نشسته‌ایم، به معنای واقعی کلمه در سایه‌ی موسسه‌ی کریک، مرکز تحقیقات زیست‌پزشکی که در آن درونی‌ترین مکانیسم‌های بدن انسان مورد مطالعه قرار می‌گیرد، هستیم. اگر از اینجا سنگی را از روی ایستگاه راه‌آهن سنت پانکراس پرتاب کنیم، ممکن است به دفتر مرکزی گوگل در لندن، شرکتی که والور قبل از رفتن به اسکاتلند برای ریاست مرکز آینده‌های تکنومورال در دانشگاه ادینبورگ، به عنوان متخصص اخلاق هوش مصنوعی در آن کار می‌کرد، برخورد کند.
در اینجا، والور که بین اسرار انسان، گنجینه‌های شناختی نهفته در زبان انسان و تکبر بی‌باک هوش مصنوعی تجاری قرار گرفته است، به من کمک می‌کند تا همه چیز را درک کنم. آیا هوش مصنوعی تمام مشکلات ما را حل خواهد کرد یا ما را منسوخ می‌کند، شاید تا مرز انقراض؟ هر دو احتمال، تیترهای نفس‌گیری را ایجاد کرده‌اند. والور وقت کمی برای هر یک از آنها دارد.
او پتانسیل عظیم هوش مصنوعی را برای مفید و مخرب بودن تصدیق می‌کند، اما فکر می‌کند که خطر واقعی در جای دیگری نهفته است. همانطور که او در کتاب خود در سال ۲۰۲۴ با عنوان "آینه‌ی هوش مصنوعی" توضیح می‌دهد، هم تصور رؤیایی مبنی بر اینکه هوش مصنوعی مانند ما فکر می‌کند و هم خیال‌پردازی پارانوئید مبنی بر اینکه به عنوان یک دیکتاتور بدخواه ظاهر می‌شود، یک خویشاوندی ساختگی با انسان‌ها را به قیمت ایجاد یک دیدگاه ساده‌لوحانه و سمی در مورد نحوه‌ی عملکرد ذهن خودمان، ادعا می‌کند. این دیدگاهی است که می‌تواند ما را تشویق کند تا عاملیت خود را رها کنیم و از خرد خود به نفع ماشین‌ها چشم‌پوشی کنیم.

وقتی انسان‌ها به عنوان ماشین‌های بی‌ذهن دیده می‌شوند، ادعای خویشاوندی بین ماشین‌ها و انسان‌ها آسان است.

با خواندن "آینه‌ی هوش مصنوعی" تحت تأثیر عزم والور برای بررسی عمیق‌تر از فهرست معمول نگرانی‌ها در مورد هوش مصنوعی قرار گرفتم: حریم خصوصی، اطلاعات نادرست و غیره. کتاب او در واقع گفتمانی در مورد رابطه‌ی انسان و ماشین است که زنگ خطر را در مورد چگونگی تبلیغ نسخه‌ی تحریف‌شده‌ای از آنچه هستیم توسط صنعت فناوری به صدا در می‌آورد، نسخه‌ای که انسان را در لباس یک کامپیوتر نرم و مرطوب بازآفرینی می‌کند.
اگر این تلخ به نظر می‌رسد، والور قطعا اینطور نیست. او بینش عمیق به‌دست‌آمده از دیدن صنعت از درون را همراه با پایه‌ای در فلسفه‌ی علم و فناوری به آرامی حمل می‌کند. او هیچ مبارزی علیه تجارت هوش مصنوعی نیست و با گرمی از دوران خود در گوگل صحبت می‌کند و در عین حال به برخی از پوچ‌های سیلیکون ولی می‌خندد. اما وضوح و صداقت اخلاقی و فکری که او به مسائل می‌آورد، به سختی می‌تواند تضاد بیشتری با تکبر سطحی و بی‌تجربه‌ی معمول برادران فناوری ضرب‌المثلی ارائه دهد.
والور به من می‌گوید: "ما در برهه‌ای از تاریخ هستیم که باید اعتماد خود را به توانایی‌های انسان برای استدلال عاقلانه، برای تصمیم‌گیری جمعی، بازسازی کنیم. ما نمی‌توانیم با بحران آب و هوا یا شکستگی پایه‌های دموکراسی مقابله کنیم، مگر اینکه بتوانیم اعتماد به تفکر و قضاوت انسان را دوباره تأیید کنیم. و همه چیز در دنیای هوش مصنوعی بر خلاف آن عمل می‌کند."

هوش مصنوعی به عنوان یک آینه

برای درک الگوریتم‌های هوش مصنوعی، والور استدلال می‌کند که نباید آنها را به عنوان ذهن در نظر بگیریم. او به من می‌گوید: "ما بیش از یک قرن توسط داستان‌های علمی تخیلی و تصورات فرهنگی از هوش مصنوعی آموزش دیده‌ایم که انتظار داشته باشیم وقتی از راه می‌رسد، یک ذهن ماشینی باشد. اما چیزی که ما داریم از نظر ماهیت، ساختار و عملکرد کاملا متفاوت است."

در عوض، باید هوش مصنوعی را به عنوان یک آینه تصور کنیم، که چیزی را که منعکس می‌کند، کپی نمی‌کند. والور می‌گوید: "وقتی برای مسواک زدن به حمام می‌روید، می‌دانید که صورت دومی به شما نگاه نمی‌کند. این فقط انعکاس یک صورت است و خواص بسیار متفاوتی دارد. گرما ندارد؛ عمق ندارد." به طور مشابه، انعکاس یک ذهن، ذهن نیست. ربات‌های گفتگوی هوش مصنوعی و مولدهای تصویر مبتنی بر مدل‌های زبانی بزرگ، صرفاً آینه‌ای از عملکرد انسان هستند. "با ChatGPT، خروجی که می‌بینید انعکاس هوش انسانی، ترجیحات خلاقانه‌ی ما، تخصص کدنویسی ما، صداهای ما - هر چیزی که ما وارد می‌کنیم - است."

والور می‌گوید، حتی متخصصان نیز در این تالار آینه‌ها فریب می‌خورند. جفری هینتون، دانشمند کامپیوتری که جایزه‌ی نوبل فیزیک امسال را به خاطر کار پیشگامانه‌اش در توسعه‌ی تکنیک‌های یادگیری عمیق که LLMها را ممکن کرد، به اشتراک گذاشت، در کنفرانسی در مورد هوش مصنوعی در سال ۲۰۲۴ گفت که "ما زبان را تقریباً به همان روشی که این مدل‌های زبانی بزرگ درک می‌کنند، درک می‌کنیم."

هینتون متقاعد شده است که این اشکال هوش مصنوعی فقط کورکورانه متن را در الگوهایی که برای ما معنادار به نظر می‌رسند، تکرار نمی‌کنند. آنها حس خاصی از معنای کلمات و مفاهیم خود ایجاد می‌کنند. یک LLM با اجازه دادن به آن برای تنظیم اتصالات در شبکه عصبی خود تا زمانی که به طور قابل اعتمادی پاسخ‌های خوبی ارائه دهد، آموزش داده می‌شود، فرآیندی که هینتون آن را با "والدین بودن برای یک کودک فوق‌العاده زودرس" مقایسه کرد. اما از آنجایی که هوش مصنوعی می‌تواند بسیار بیشتر از ما "بداند" و بسیار سریعتر "فکر" کند، هینتون نتیجه می‌گیرد که ممکن است در نهایت جایگزین ما شود: او در کنفرانس بررسی فناوری MIT در سال ۲۰۲۳ گفت: "کاملاً قابل تصور است که بشریت فقط یک مرحله‌ی گذرا در تکامل هوش باشد."

متخصص اخلاق هوش مصنوعی: شانون والور در مورد چگونگی تبلیغ نسخه‌ی تحریف‌شده‌ای از انسان‌ها توسط صنعت فناوری زنگ خطر را به صدا در می‌آورد. اگر این تلخ به نظر می‌رسد، والور قطعا اینطور نیست. او بینش عمیق به‌دست‌آمده از دیدن صنعت از درون را همراه با پایه‌ای در فلسفه‌ی علم به آرامی حمل می‌کند. عکس از کالوم بنتس - آژانس عکس ماوریک.

والور می‌گوید: "هینتون وقتی شروع به صحبت در مورد دانش و تجربه می‌کند، خیلی از اسکی‌هایش دور می‌شود. ما می‌دانیم که مغز و یک مدل یادگیری ماشینی فقط از نظر ساختار و عملکرد به طور سطحی مشابه هستند. از نظر آنچه در سطح فیزیکی اتفاق می‌افتد، تفاوت فاحشی وجود دارد که ما هر دلیلی برای فکر کردن داریم که این تفاوت ایجاد می‌کند." اصلا هیچ خویشاوندی واقعی وجود ندارد.

من به والور می‌گویم که موافقم که ادعاهای آخرالزمانی زمان پخش زیادی دریافت کرده‌اند. اما برخی از محققان می‌گویند که LLMها "شناختی‌تر" می‌شوند: گفته می‌شود که جدیدترین ربات گفتگوی OpenAI، مدل o1، از طریق یک سری مراحل زنجیره‌ای استدلال کار می‌کند (حتی اگر این شرکت آنها را فاش نکند، بنابراین ما نمی‌توانیم بدانیم که آیا آنها شبیه استدلال انسان هستند یا خیر). و هوش مصنوعی مطمئناً ویژگی‌هایی دارد که می‌توان آنها را جنبه‌هایی از ذهن در نظر گرفت، مانند حافظه و یادگیری. ملانی میچل، دانشمند کامپیوتر و دیوید کراکائر، نظریه‌پرداز پیچیدگی، پیشنهاد کرده‌اند که اگرچه نباید این سیستم‌ها را به عنوان ذهن‌هایی مانند ذهن خودمان در نظر بگیریم، اما ممکن است آنها را ذهن‌هایی از نوع کاملاً متفاوت و ناآشنا در نظر بگیریم.

هوش مصنوعی در برابر انسان

من به والور می‌گویم که نسبت به این رویکرد کاملاً بدبین هستم. این رویکرد ممکن است در آینده مناسب باشد، و من در اصل با این ایده که ممکن است ذهن‌های ماشینی بسازیم مخالف نیستم. من فقط فکر نمی‌کنم که این کاری باشد که ما در حال حاضر انجام می‌دهیم.
مقاومت والور در برابر ایده‌ی هوش مصنوعی به عنوان یک ذهن، از پیشینه‌ی او در فلسفه ناشی می‌شود، جایی که ذهنیت ریشه در تجربه دارد: دقیقاً همان چیزی که هوش مصنوعی امروزی فاقد آن است. در نتیجه، او می‌گوید، صحبت کردن در مورد این ماشین‌ها به عنوان تفکر مناسب نیست.
دیدگاه او با مقاله‌ی سال ۱۹۵۰ آلن تورینگ، ریاضیدان و پیشگام کامپیوتر بریتانیایی، با عنوان "ماشین‌های محاسباتی و هوش"، که اغلب به عنوان بنیان مفهومی هوش مصنوعی در نظر گرفته می‌شود، در تضاد است. تورینگ این سوال را مطرح کرد: "آیا ماشین‌ها می‌توانند فکر کنند؟" - فقط برای جایگزینی آن با آنچه که او سوال بهتری می‌دانست، این بود که آیا می‌توانیم ماشین‌هایی را توسعه دهیم که بتوانند به سوالاتی که نمی‌توانیم از پاسخ‌های انسان‌ها تشخیص دهیم، پاسخ دهند. این "بازی تقلید" تورینگ بود که اکنون معمولاً به عنوان آزمون تورینگ شناخته می‌شود.


اما والور می‌گوید، تقلید تمام چیزی است که وجود دارد. "برای من، تفکر مجموعه‌ای خاص و نسبتاً منحصر به فرد از تجربیاتی است که ما داریم. تفکر بدون تجربه مانند آب بدون هیدروژن است - شما چیزی را حذف کرده‌اید که هویت خود را از دست می‌دهد."

والور می‌گوید، استدلال به مفاهیم نیاز دارد، و LLMها واقعاً آنها را توسعه نمی‌دهند. "هر چیزی را که در یک LLM مفهوم می‌نامیم، در واقع چیز متفاوتی است. این یک نگاشت آماری از تداعی‌ها در یک فضای برداری ریاضی با ابعاد بالا است. از طریق این نمایش، مدل می‌تواند خط دید به راه‌حل را به دست آورد که کارآمدتر از یک جستجوی تصادفی است. اما اینطور نیست که ما فکر می‌کنیم."

با این حال، آنها در تظاهر به استدلال بسیار خوب هستند. "ما می‌توانیم از مدل بپرسیم، "چگونه به این نتیجه رسیدید؟" و این فقط یک زنجیره‌ی کامل از افکار را به هم می‌ریزد که اگر روی آن فشار بیاورید، خیلی سریع به مزخرف تبدیل می‌شود. این به شما می‌گوید که این یک رشته‌ی فکری نبود که ماشین دنبال کرده و به آن متعهد باشد. این فقط یک توزیع احتمالی دیگر از اشکال شبیه به استدلال است که به طور مناسب با خروجی که تولید کرده است مطابقت دارند. این کاملاً پسینی است."

در برابر ماشین انسانی

دام اصرار بر خویشاوندی ساختگی بین ذهن انسان و ماشین را می‌توان از همان روزهای اولیه‌ی هوش مصنوعی در دهه‌ی ۱۹۵۰ تشخیص داد. و این چیزی است که من را بیشتر در مورد آن نگران می‌کند، به والور می‌گویم. اینطور نیست که قابلیت‌های سیستم‌های هوش مصنوعی در مقایسه بیش از حد برآورد شده باشد، بلکه به این دلیل است که نحوه‌ی کار مغز انسان توسط آن بسیار کاهش می‌یابد.

او موافق است: "این بزرگترین نگرانی من است." والور می‌گوید، هر بار که سخنرانی می‌کند و اشاره می‌کند که الگوریتم‌های هوش مصنوعی واقعاً ذهن نیستند، "کسی در بین حضار به سراغ من می‌آید و می‌گوید: "خب، حق با شماست، اما فقط به این دلیل که در نهایت ذهن ما نیز این کارها را انجام نمی‌دهد - ما واقعاً منطقی نیستیم، ما واقعاً مسئول آنچه باور داریم نیستیم، ما فقط ماشین‌های پیش‌بینی‌کننده‌ای هستیم که کلماتی را که مردم انتظار دارند بیرون می‌اندازند، ما فقط الگوها را مطابقت می‌دهیم، ما فقط کاری را انجام می‌دهیم که یک LLM انجام می‌دهد.""

هینتون پیشنهاد کرده است که یک LLM می‌تواند احساساتی داشته باشد. والور می‌گوید: "شاید دقیقاً مانند ما نباشد، اما به معنای کمی متفاوت." "و سپس متوجه می‌شوید که او این کار را فقط با حذف مفهوم احساسات از هر چیزی که توسط انسان تجربه می‌شود و تبدیل آن به یک واکنش رفتاری انجام داده است. این ابتدایی‌ترین نظریه‌های قرن بیستمی در مورد ذهن انسان را به عنوان حقیقت پایه در نظر می‌گیرد. از آنجا ادعای خویشاوندی بین ماشین‌ها و انسان‌ها بسیار آسان می‌شود زیرا شما قبلاً انسان را به یک ماشین بی‌ذهن تبدیل کرده‌اید."

با مفهوم بسیار ستایش‌شده‌ی هوش مصنوعی عمومی (AGI) است که این مشکلات شروع به حاد شدن می‌کنند. AGI اغلب به عنوان هوشی ماشینی تعریف می‌شود که می‌تواند هر عملکرد هوشمندی را که انسان می‌تواند انجام دهد، اما بهتر انجام دهد. برخی معتقدند که ما قبلاً در آن آستانه هستیم. به جز اینکه، برای بیان چنین ادعاهایی، باید هوش انسانی را به عنوان زیرمجموعه‌ای از آنچه انجام می‌دهیم، تعریف کنیم.

والور می‌گوید: "بله، و این یک استراتژی بسیار عمدی برای منحرف کردن توجه از این واقعیت است که ما AGI نساخته‌ایم و به آن نزدیک نیستیم."
فرهنگ سیلیکون ولی ویژگی‌های مذهب را دارد. این فرهنگ توسط شواهد متقابل یا استدلال متزلزل نمی‌شود.
در ابتدا، AGI به معنای چیزی بود که هیچ چیز از آنچه ذهن انسان می‌تواند انجام دهد را از دست نمی‌دهد - چیزی که در مورد آن شکی نداریم که در حال تفکر و درک جهان است. اما در کتاب آینه‌ی هوش مصنوعی، والور توضیح می‌دهد که متخصصانی مانند هینتون و سام آلتمن، مدیرعامل OpenAI، شرکتی که ChatGPT را ایجاد کرده است، اکنون AGI را به عنوان سیستمی تعریف می‌کنند که در محاسبه، پیش‌بینی، مدل‌سازی، تولید و حل مسئله برابر یا بهتر از انسان است.
والور می‌گوید: "در واقع، آلتمن "دروازه‌ها را جابه‌جا کرد و گفت که منظور ما از AGI ماشینی است که در واقع می‌تواند تمام وظایف ارزشمند اقتصادی را که انسان‌ها انجام می‌دهند، انجام دهد." این یک دیدگاه رایج در جامعه است. مصطفی سلیمان، مدیرعامل مایکروسافت هوش مصنوعی، نوشته است که هدف نهایی هوش مصنوعی "تقطیر جوهره‌ی چیزی است که ما انسان‌ها را تا این حد مولد و توانمند می‌کند به نرم‌افزار، به یک الگوریتم"، که او آن را معادل توانایی "تکرار همان چیزی می‌داند که ما را به عنوان یک گونه منحصر به فرد می‌کند، هوش ما."
والور می‌گوید، وقتی تغییر چارچوب AGI توسط آلتمن را دیدم، "باید لپ‌تاپ را می‌بستم و به مدت نیم ساعت به فضا خیره می‌شدم. اکنون تمام چیزی که ما برای هدف AGI داریم چیزی است که رئیستان می‌تواند شما را با آن جایگزین کند. می‌تواند به بی‌ذهنی یک توستر باشد، تا زمانی که بتواند کار شما را انجام دهد. و این همان چیزی است که LLMها هستند - آنها توسترهای بی‌ذهنی هستند که بدون فکر کردن کارهای شناختی زیادی انجام می‌دهند."
من این نکته را با والور بررسی می‌کنم. داشتن هوش مصنوعی که بتواند ما را در شطرنج شکست دهد یک چیز است - اما اکنون الگوریتم‌هایی داریم که نثرهای قانع‌کننده می‌نویسند، چت‌های جذابی دارند، موسیقی می‌سازند که برخی را فریب می‌دهد که فکر کنند توسط انسان ساخته شده است. مطمئناً، این سیستم‌ها می‌توانند نسبتاً محدود و ملایم باشند - اما آیا آنها به طور فزاینده‌ای به وظایفی که ممکن است به عنوان منحصر به فرد انسان در نظر بگیریم، تجاوز نمی‌کنند؟
او می‌گوید: "اینجاست که استعاره‌ی آینه مفید می‌شود. تصویر آینه می‌تواند برقصد. یک آینه‌ی به اندازه‌ی کافی خوب می‌تواند جنبه‌هایی از خودتان را که عمیقاً انسانی هستند به شما نشان دهد، اما تجربه‌ی درونی آنها را نشان نمی‌دهد - فقط عملکرد." او در مورد هنر هوش مصنوعی می‌افزاید: "نکته‌ی مهم این است که بدانیم هیچ چیز در طرف دیگر در این ارتباط شرکت نمی‌کند."
آنچه ما را گیج می‌کند این است که می‌توانیم در پاسخ به یک "اثر هنری" تولید شده توسط هوش مصنوعی احساساتی داشته باشیم. اما این تعجب‌آور نیست زیرا ماشین در حال انعکاس جایگشت‌های الگوهایی است که انسان‌ها ساخته‌اند: موسیقی شبیه شوپن، نثر شبیه شکسپیر. و پاسخ احساسی به نوعی در محرک رمزگذاری نشده است، بلکه در ذهن خودمان ساخته می‌شود: تعامل با هنر بسیار کمتر از آنچه تصور می‌کنیم منفعل است.
اما فقط مربوط به هنر نیست. والور می‌گوید: "ما معناآفرین و معناآفرین هستیم، و این تا حدی چیزی است که به ما آزادی‌های شخصی، خلاقانه و سیاسی می‌دهد. ما در الگوهایی که هضم کرده‌ایم قفل نشده‌ایم، اما می‌توانیم آنها را در اشکال جدید مرتب کنیم. ما این کار را زمانی انجام می‌دهیم که ادعاهای اخلاقی جدیدی را در جهان مطرح می‌کنیم. اما این ماشین‌ها فقط همان الگوها و اشکال را با تغییرات آماری جزئی دوباره به گردش در می‌آورند. آنها ظرفیت معناآفرینی ندارند. این اساساً شکافی است که مانع از آن می‌شود که ما در ادعای خویشاوندی واقعی با آنها توجیه شویم."

بعضی‌ها واقعاً فکر می‌کنند دوران تصمیم‌گیری انسان رو به پایان است. این برای من وحشتناک است.

در سیلیکون ولی، کارایی هدف نهایی است. به قول والور: «هدف، رسیدن به وضعیتی است که مسئله حل شده و دیگر هیچ اصطکاکی، هیچ ابهامی و هیچ چیز ناگفته یا انجام‌نشده‌ای وجود ندارد. شما بر مسئله مسلط شده‌اید و آن را از بین برده‌اید و تنها چیزی که باقی می‌ماند، راه‌حل بی‌نقص و درخشان شماست. این ایدئولوژی هوش مصنوعی است؛ چیزی که می‌خواهد کارِ فکر کردن را از میان بردارد.»

والور برایم تعریف کرد که یک بار سعی کرده به یکی از رهبران حوزه هوش مصنوعی عمومی (AGI) توضیح دهد که عدالت، راه‌حل ریاضی ندارد. والور می‌گوید: «به او گفتم ماهیت عدالت این است که ما ارزش‌ها و منافع متعارضی داریم که نمی‌توان آن‌ها را در یک مقیاس واحد سنجید و کارِ تعمق، مذاکره و تجدیدنظر انسانی ضروری است. و او به من گفت: "فکر می‌کنم این فقط یعنی تو در ریاضی بدی." در مقابل چنین حرفی چه می‌توان گفت؟ این دو جهان‌بینی هیچ نقطه اشتراکی ندارند. شما با دو برداشت کاملاً متفاوت از واقعیت روبرو هستید.»

خطر واقعی


والور خطرات هوش مصنوعیِ قدرتمندتر برای جوامع ما، از حریم خصوصی گرفته تا اطلاعات نادرست و بی‌ثباتی سیاسی، را دست کم نمی‌گیرد. اما نگرانی اصلی او در حال حاضر این است که هوش مصنوعی با تصور ما از خودمان چه می‌کند.
والور می‌گوید: «فکر می‌کنم هوش مصنوعی تهدیدی قریب‌الوقوع برای اهمیت وجودی زندگی بشر است. هوش مصنوعی از طریق خودکارسازی روش‌های تفکر ما و از طریق روایتی که پیرامون آن ساخته می‌شود، درک ما از خودمان به‌عنوان موجوداتی هوشمند، مسئول و آزاد در جهان را تضعیف می‌کند. می‌توانید این را در لفاظی‌های اقتدارگرایانه‌ای که می‌خواهند محرومیت انسان‌ها از حکومت بر خود را توجیه کنند، بیابید. هوش مصنوعی به این داستان، جانی دوباره بخشیده است.»
او می‌گوید که بدتر از آن، این روایت به‌عنوان داستانی عینی، بی‌طرف و فارغ از سیاست ارائه می‌شود: این فقط علم است. «با افرادی مواجه می‌شوید که واقعاً فکر می‌کنند زمان عاملیت انسان به پایان رسیده است، دوران تصمیم‌گیری انسان رو به افول است – و این چیز خوبی است و صرفاً یک واقعیت علمی است. این برای من وحشتناک است. به ما گفته می‌شود که قدم بعدی این است که هوش مصنوعی عمومی قرار است چیزی بهتر بسازد. و من فکر می‌کنم افراد بسیار بدبینی وجود دارند که معتقدند این حقیقت دارد و به این باور که در حال ایجاد جانشینان ماشینی خود هستند، نوعی آرامش مذهبی می‌یابند.»
والور نمی‌خواهد پیشرفت هوش مصنوعی متوقف شود. او می‌گوید که هوش مصنوعی واقعاً می‌تواند به حل برخی از مشکلات جدی ما کمک کند. «هنوز کاربردهای عظیمی برای هوش مصنوعی در پزشکی، در بخش انرژی و در کشاورزی وجود دارد. من می‌خواهم هوش مصنوعی به پیشرفت خود به شیوه‌ای عاقلانه، هدایت‌شده و مدیریت‌شده ادامه دهد.»
به همین دلیل است که واکنش شدید علیه آن، هرچند قابل درک باشد، می‌تواند در درازمدت مشکل‌ساز شود. والور می‌گوید: «می‌بینم که بسیاری از مردم علیه هوش مصنوعی برمی‌گردند. این [مخالفت] در بسیاری از محافل خلاق به نفرتی شدید تبدیل می‌شود. این جوامع حدود سه سال پیش، زمانی که مدل‌های زبانی بزرگ و مدل‌های تصویر شروع به ظهور کردند، در نگرش خود بسیار متعادل‌تر بودند. افراد زیادی می‌گفتند: "این کمی جالب است." اما رویکرد صنعت هوش مصنوعی نسبت به حقوق و عاملیت خالقان آثار هنری به‌قدری استثمارگرانه بوده است که اکنون می‌بینید که افراد خلاق می‌گویند: "لعنت به هوش مصنوعی و هر کسی که به آن وابسته است، اجازه ندهید به هیچ وجه به کار خلاقانه ما نزدیک شود." من نگران این هستم که این نگرش واکنشی به مضرترین اشکال هوش مصنوعی، به بی‌اعتمادی عمومی به آن به‌عنوان مسیری برای حل هر نوع مشکلی، گسترش یابد.»
والور می‌گوید: «در حالی که من هنوز می‌خواهم هوش مصنوعی را ترویج کنم، اغلب خود را در اردوگاه افرادی می‌بینم که به دلایلی کاملاً مشروع، خشمگینانه علیه آن هستند.» او اذعان می‌کند که این شکاف، بخشی از «جدایی مصنوعی می‌شود که مردم اغلب به آن بین انسانیت و فناوری چسبیده‌اند.» او می‌گوید چنین تمایزی «به‌طور بالقوه بسیار مخرب است، زیرا فناوری برای هویت ما اساسی است. ما از قبل از اینکه انسان خردمند باشیم، موجوداتی فناور بوده‌ایم. ابزارها، وسیله‌ای برای رهایی، آفرینش، و راه‌های بهتر برای مراقبت از یکدیگر و سایر موجودات زنده در این سیاره بوده‌اند و من نمی‌خواهم این را رها کنم، نمی‌خواهم این شکاف مصنوعی بین انسانیت و ماشین‌ها را تقویت کنم. فناوری در هسته خود می‌تواند فعالیتی به انسانی هر فعالیت دیگری باشد. ما فقط این ارتباط را از دست داده‌ایم.»

به همین دلیل، واکنش منفی علیه هوش مصنوعی، هرچند قابل درک باشد، می‌تواند در درازمدت مشکل‌ساز شود. والور می‌گوید: «می‌بینم که بسیاری از مردم علیه هوش مصنوعی موضع می‌گیرند. این موضوع در بسیاری از حلقه‌های خلاق به نفرتی شدید تبدیل می‌شود. همین سه سال پیش، وقتی مدل‌های زبانی بزرگ و مدل‌های تصویرسازی شروع به ظهور کردند، این جوامع در نگرش خود بسیار متعادل‌تر بودند. افراد زیادی می‌گفتند: "این چیز جالبی است". اما رویکرد صنعت هوش مصنوعی به حقوق و اختیارات خالقان آثار هنری به قدری استثمارگرانه بوده که حالا می‌بینید افراد خلاق می‌گویند: "لعنت به هوش مصنوعی و هر کسی که به آن وابسته است، نگذارید به هیچ وجه به کارهای خلاقانه ما نزدیک شود." نگرانم که این واکنش منفی به مضرترین اشکال هوش مصنوعی به بی‌اعتمادی عمومی نسبت به آن به عنوان راه حلی برای هر نوع مشکلی گسترش یابد.»

والور با وجود اینکه هنوز هم می‌خواهد هوش مصنوعی را ترویج دهد، می‌گوید: «اغلب اوقات خود را در اردوگاه افرادی می‌بینم که به دلایلی کاملاً موجه، با خشم علیه آن موضع می‌گیرند.» او اذعان می‌کند که این شکاف، بخشی از «جدایی مصنوعی می‌شود که مردم اغلب بین انسانیت و فناوری به آن چنگ می‌زنند.» او می‌گوید چنین تمایزی «به طور بالقوه بسیار مخرب است، زیرا فناوری برای هویت ما اساسی است. ما از قبل از اینکه هوموساپینس باشیم، موجوداتی فناور بوده‌ایم. ابزارها وسیله‌ی رهایی ما، خلق کردن، و راه‌های بهتر برای مراقبت از یکدیگر و سایر موجودات زنده در این سیاره بوده‌اند، و من نمی‌خواهم این را رها کنم، تا این شکاف مصنوعی بین انسانیت و ماشین‌ها را تقویت کنم. فناوری در هسته‌ی خود می‌تواند به اندازه‌ی هر چیز دیگری فعالیتی انسانی باشد. ما فقط این ارتباط را از دست داده‌ایم.»

فیلیپ بال

نویسنده‌ای آزادکار ساکن لندن و نویسنده‌ی کتاب‌های متعددی درباره‌ی علم و تعاملات آن با فرهنگ گسترده‌تر است. آخرین کتاب او «چگونه زندگی کار می‌کند» نام دارد.