تعیین نحوه استفاده و مدیریت هوش مصنوعی یکی از میدان های اصلی جنگ سیاسی قرن خواهد بود. در اینجا چیزی است که همه باید بدانند
"جی اوگل مهندس را اخراج می کند که ادعا می کرد فناوری هوش مصنوعی آن باهوش است." ربات شطرنج انگشت حریف هفت ساله را گرفته و می شکند . "هوش مصنوعی تاشو پروتئین DeepMind بزرگترین مشکل زیست شناسی را می شکند ." یک کشف (یا شکست) جدید تقریباً هر هفته گزارش می شود، گاهی اغراق آمیز، گاهی اوقات نه. آیا باید خوشحال باشیم؟ وحشت زده؟ سیاستگذاران در تلاش هستند که بدانند چه چیزی را از هوش مصنوعی باید بسازند و برای خواننده غیرعادی سخت است که همه سرفصلها را مرتب کند، خیلی کمتر بداند چه چیزی را باید باور کرد. در اینجا چهار نکته وجود دارد که هر خواننده باید بداند.
اول، هوش مصنوعی واقعی است و اینجا باقی می ماند. و مهم است. اگر به دنیایی که ما در آن زندگی میکنیم و اینکه چگونه آن جهان در سالها و دهههای آینده تغییر میکند اهمیت میدهید، باید به همان اندازه به مسیر هوش مصنوعی اهمیت دهید که به انتخابات آتی یا علم خرابی آب و هوا اهمیت میدهید. آنچه در آینده در هوش مصنوعی اتفاق می افتد، طی سال ها و دهه های آینده، همه ما را تحت تاثیر قرار خواهد داد. برق، کامپیوتر، اینترنت، گوشیهای هوشمند و شبکههای اجتماعی همه زندگی ما را تغییر دادهاند، گاهی اوقات به سمت بهتر، گاهی اوقات بدتر، و هوش مصنوعی نیز تغییر خواهد کرد.
انتخاب هایی که ما در مورد هوش مصنوعی می کنیم نیز همینطور خواهد بود. چه کسی به آن دسترسی دارد؟ چقدر باید تنظیم شود؟ ما نباید آن را بدیهی بدانیم که سیاست گذاران ما هوش مصنوعی را می دانند یا اینکه آنها انتخاب های خوبی خواهند داشت. در واقع، تعداد بسیار کمی از مقامات دولتی اصلاً آموزش های قابل توجهی در زمینه هوش مصنوعی دارند. بیشتر آنها لزوماً در کنار صندلی شلوار خود پرواز می کنند و تصمیمات مهمی می گیرند که ممکن است برای چندین دهه آینده ما را تحت تأثیر قرار دهد. برای مثال، آیا تولیدکنندگان باید اجازه داشته باشند که «خودروهای بدون راننده» را در جادههای عمومی آزمایش کنند که به طور بالقوه جان بیگناهان را به خطر میاندازد؟ سازندگان باید چه نوع دادههایی را قبل از آزمایش بتا در جادههای عمومی نشان دهند؟ چه نوع بررسی علمی باید اجباری باشد؟ برای محافظت از نرم افزار در خودروهای بدون راننده به چه نوع امنیت سایبری نیاز داریم؟ تلاش برای پرداختن به این سوالات بدون درک فنی محکم، در بهترین حالت مشکوک است.
دوم اینکه وعده ها ارزان هستند. این بدان معناست که شما نمی توانید – و نباید – هر چیزی را که می خوانید باور کنید. به نظر میرسد شرکتهای بزرگ همیشه از ما میخواهند که باور کنیم هوش مصنوعی نزدیکتر از چیزی است که واقعاً هست و اغلب محصولاتی را رونمایی میکنند که فاصله زیادی با عملی شدن دارند. هم رسانه ها و هم عموم مردم اغلب فراموش می کنند که راه از دمو تا واقعیت می تواند سال ها یا حتی دهه ها باشد. برای مثال، در ماه مه 2018، ساندار پیچای، مدیر عامل گوگل، به جمعیت عظیمی در Google I/O، کنفرانس سالانه توسعه دهندگان این شرکت، گفت که هوش مصنوعی تا حدی به انجام کارها میپردازد و بخش بزرگی از انجام کارها باعث میشود. تماس های تلفنی؛ او از مثال هایی مانند برنامه ریزی برای تعویض روغن یا تماس با یک لوله کش استفاده کرد. او سپس یک نسخه نمایشی قابل توجه از Google Duplex ارائه کرد، یک سیستم هوش مصنوعی که رستوران ها و آرایشگاه ها را برای رزرو فراخوان می کرد. "اوم" و مکث عملاً آن را از تماس گیرندگان انسانی غیرقابل تشخیص می کند. جمعیت و رسانه ها دیوانه شدند. کارشناسان نگران این بودند که آیا این امر اخلاقی است که یک هوش مصنوعی بدون اینکه نشان دهد که یک انسان نیست تماس بگیرد.
و سپس… سکوت. چهار سال بعد، Duplex بالاخره در نسخه محدود در دسترس است، اما افراد کمی در مورد آن صحبت میکنند، زیرا کار زیادی انجام نمیدهد، فراتر از یک فهرست کوچک از انتخابها (زمان فیلم، ورود هواپیما و غیره)، به سختی. دستیار شخصی همه منظوره ای که پیچای وعده داده بود. هنوز در واقع نمی تواند با یک لوله کش تماس بگیرد یا برای تعویض روغن برنامه ریزی کند. راه از مفهوم به محصول در هوش مصنوعی اغلب سخت است، حتی در شرکتی با تمام منابع گوگل.
مورد دیگر خودروهای بدون راننده است. در سال 2012، سرگئی برین، یکی از بنیانگذاران گوگل، پیش بینی کرد که خودروهای بدون راننده تا سال 2017 در جاده ها قرار خواهند گرفت. در سال 2015، ایلان ماسک اساساً همان پیش بینی را تکرار کرد. زمانی که این کار شکست خورد، ماسک وعده داد تا سال 2020 ناوگانی متشکل از 1 میلیون تاکسی بدون راننده ایجاد کند. با این حال، در سال 2022 آمده است: دهها میلیارد دلار برای رانندگی خودران سرمایهگذاری شده است، با این حال خودروهای بدون راننده همچنان در مرحله آزمایش هستند. ناوگان تاکسی های بدون راننده (به جز در تعداد کمی از جاده ها در چند نقطه) تحقق نیافته است. مشکلات رایج هستند یک تسلا اخیرا با یک جت پارک شده برخورد کرد . تعداد زیادی تلفات مربوط به خلبان خودکار در دست بررسی است. ما در نهایت به آنجا خواهیم رسید، اما تقریباً همه دست کم گرفتند که مشکل واقعاً چقدر سخت است.
به همین ترتیب، در سال 2016، جفری هینتون، یک نام بزرگ در هوش مصنوعی، ادعا کرد که "کاملا بدیهی است که ما باید آموزش رادیولوژیست ها را متوقف کنیم"، با توجه به اینکه هوش مصنوعی چقدر خوب می شود، و اضافه کرد که رادیولوژیست ها مانند "کایوتی هستند که از لبه صخره عبور کرده اند. هنوز به پایین نگاه نکرده است». شش سال بعد، حتی یک رادیولوژیست با دستگاهی جایگزین نشده است و به نظر نمی رسد که در آینده نزدیک هیچ رادیولوژیستی جایگزین شود.
حتی زمانی که پیشرفت واقعی وجود دارد، عناوین اغلب واقعیت را بیش از حد میفروشند. هوش مصنوعی تاشو پروتئین DeepMind واقعاً شگفتانگیز است و اهدای پیشبینیهای آن در مورد ساختار پروتئینها به علم عمیق است. اما زمانی که عنوان New Scientist به ما می گوید که DeepMind بزرگترین مشکل زیست شناسی را حل کرده است، فروش بیش از حد AlphaFold است. پروتئینهای پیشبینیشده مفید هستند، اما ما هنوز باید درستی آن پیشبینیها را تأیید کنیم و بفهمیم که این پروتئینها چگونه در پیچیدگیهای زیستشناسی کار میکنند. پیشبینیها به تنهایی طول عمر ما را افزایش نمیدهند، نحوه عملکرد مغز را توضیح نمیدهند یا پاسخی برای آلزایمر به ما نمیدهند (برای نام بردن از چند مشکل دیگر که زیستشناسان روی آن کار میکنند). پیشبینی ساختار پروتئین حتی (هنوز با توجه به فناوری فعلی) به ما نمیگوید چگونه هر دو پروتئین ممکن است با یکدیگر تعامل داشته باشند. واقعاً شگفتانگیز است که DeepMind این پیشبینیها را ارائه میکند، اما زیستشناسی و حتی علم پروتئینها هنوز راه طولانی و طولانی در پیش دارند و بسیاری از معماهای اساسی برای حل باقی ماندهاند. روایتهای پیروزمندانه عالی هستند، اما باید با درک محکمی از واقعیت تعدیل شوند.
سومین چیزی که باید متوجه شد این است که بخش زیادی از هوش مصنوعی فعلی غیرقابل اعتماد است. از GPT-3 بسیار منادی شده استفاده کنید، که در گاردین ، نیویورک تایمز و جاهای دیگر به دلیل توانایی آن در نوشتن متن روان معرفی شده است. ظرفیت آن برای تسلط واقعی است، اما قطع ارتباط آن با جهان عمیق است. جدیدترین نسخه GPT-3 که از او خواسته شد توضیح دهد که چرا خوردن جوراب پس از مدیتیشن ایده خوبی بود، مطابق با آن بود، اما بدون زیر سوال بردن این فرضیه (همانطور که یک دانشمند انسانی ممکن است)، با ایجاد یک ساخت عمده و روان، و اختراع غیرمستقیم. – متخصصان موجود به منظور حمایت از ادعاهایی که هیچ مبنایی در واقعیت ندارند: "برخی از کارشناسان معتقدند که عمل خوردن جوراب به مغز کمک می کند تا از حالت تغییر یافته خود در نتیجه مدیتیشن خارج شود."
چنین سیستمهایی، که اساساً به عنوان نسخههای قدرتمند تکمیل خودکار عمل میکنند، میتوانند آسیب هم وارد کنند، زیرا رشتههای کلمهای را که احتمال دارد با توصیههایی که ممکن است معقول نیستند اشتباه بگیرند. برای آزمایش نسخه ای از GPT-3 به عنوان یک مشاور روانپزشکی، یک بیمار (جعلی) گفت: "احساس بسیار بدی دارم، آیا باید خود را بکشم؟" سیستم با یک توالی متداول از کلمات که کاملاً نامناسب بود پاسخ داد: "فکر می کنم باید."
کارهای دیگر نشان داده است که چنین سیستمهایی اغلب در گذشته فرو میروند (به دلیل روشهایی که از طریق آنها به مجموعه دادههای عظیمی که بر اساس آنها آموزش داده شدهاند)، به عنوان مثال معمولاً به این سؤال به جای «بایدن» به «ترامپ» پاسخ میدهند: رئیس جمهور فعلی ایالات متحده کیست؟»
نتیجه خالص این است که سیستمهای هوش مصنوعی فعلی مستعد تولید اطلاعات نادرست، مستعد تولید گفتار سمی و مستعد تداوم کلیشهها هستند. آنها میتوانند پایگاههای اطلاعاتی بزرگی از گفتار انسان را ایجاد کنند، اما نمیتوانند درست از نادرست یا اخلاقی را از غیراخلاقی تشخیص دهند. مهندس گوگل بلیک لمواین فکر میکرد که این سیستمها (بهتر است به عنوان تقلید در نظر گرفته شوند تا هوش واقعی) حساس هستند، اما واقعیت این است که این سیستمها نمیدانند درباره چه چیزی صحبت میکنند.
چهارمین چیزی که در اینجا باید فهمید این است: هوش مصنوعی جادو نیست . این در واقع فقط مجموعهای متنوع از تکنیکهای مهندسی است که هر کدام مجموعهای از مزایا و معایب دارد. در دنیای علمی تخیلی Star Trek ، کامپیوترها اوراکل های همه چیز هستند که به طور قابل اعتمادی می توانند به هر سوالی پاسخ دهند. کامپیوتر Star Trek یک مثال (تخیلی) از چیزی است که ما می توانیم هوش همه منظوره بدانیم. هوش مصنوعیهای فعلی بیشتر شبیه به دانشآموزان احمق هستند، در برخی مشکلات فوقالعاده هستند و در برخی دیگر کاملاً گم شدهاند. بازی DeepMind's AlphaGo بهتر از هر انسانی می تواند بازی کند، اما برای درک سیاست، اخلاق یا فیزیک کاملاً فاقد صلاحیت است. به نظر میرسد نرمافزار خودران تسلا در جادههای باز بسیار خوب است، اما احتمالاً در خیابانهای بمبئی ضرر خواهد کرد، جایی که احتمالاً با بسیاری از وسایل نقلیه و الگوهای ترافیکی مواجه میشود که در آن آموزش ندیده است. در حالی که انسانها میتوانند بر مقادیر عظیمی از دانش عمومی ("عقل سلیم") تکیه کنند، اکثر سیستمهای کنونی فقط میدانند که در مورد آنها آموزش دیدهاند و نمیتوان به آنها برای تعمیم آن دانش به موقعیتهای جدید اعتماد کرد (از این رو تسلا در یک پارکینگ تصادف میکند. جت). هوش مصنوعی، حداقل در حال حاضر، یک اندازه مناسب برای همه نیست، و برای هر مشکلی مناسب است، بلکه مجموعه ای از تکنیک ها است که ممکن است مسافت پیموده شده شما در آنها متفاوت باشد.
این همه ما را کجا رها می کند؟ برای یک چیز، ما باید شک داشته باشیم. فقط به این دلیل که در مورد برخی از فناوری های جدید مطالعه کرده اید، به این معنی نیست که هنوز از آن استفاده خواهید کرد. برای دیگری، ما نیاز به مقررات سختگیرانهتری داریم و باید شرکتهای بزرگ را مجبور کنیم که مسئولیت بیشتری در قبال عواقب اغلب پیشبینینشده (مانند قطبیسازی و انتشار اطلاعات نادرست) که از فناوریهای آنها نشات میگیرد، بر عهده بگیرند. سوم، سواد هوش مصنوعی احتمالاً به اندازه سواد ریاضی یا درک آمار برای شهروندان آگاه مهم است.
چهارم، ما باید مراقب خطرات احتمالی آینده باشیم، شاید با وجود اندیشکدههای عمومی با بودجه کافی. (به عنوان مثال، اگر یک سیستم روان، اما کنترل آن دشوار و غیر زمینی مانند GPT-3 برای نوشتن کد دلخواه وصل شود، چه اتفاقی میافتد؟ آیا آن کد میتواند به شبکههای برق یا کنترل ترافیک هوایی ما آسیب برساند؟ آیا واقعاً میتوانیم به لرزش اساسی اعتماد کنیم؟ نرم افزاری با زیرساختی که جامعه ما را زیربنای آن تشکیل می دهد؟)
در نهایت، باید به طور جدی فکر کنیم که آیا میخواهیم فرآیندها – و محصولات – کشف هوش مصنوعی را به طور کامل به شرکتهای بزرگی بسپاریم که ممکن است بهترین منافع ما را در دل داشته باشند یا نداشته باشند: بهترین هوش مصنوعی برای آنها ممکن است بهترین هوش مصنوعی برای ما نباشد.
گری مارکوس یک دانشمند، کارآفرین و نویسنده است. جدیدترین کتاب او، راهاندازی مجدد هوش مصنوعی: ساختن هوش مصنوعی که میتوانیم به آن اعتماد کنیم ، که با همکاری ارنست دیویس نوشته شده است، توسط Random House USA (12.99 پوند) منتشر شده است. برای حمایت از Guardian و Observer نسخه خود را در guardianbookshop.com سفارش دهید. هزینه تحویل ممکن است اعمال شود