تعیین نحوه استفاده و مدیریت هوش مصنوعی یکی از میدان های اصلی جنگ سیاسی قرن خواهد بود. در اینجا چیزی است که همه باید بدانند
"جی اوگل مهندس را اخراج می کند که ادعا می کرد فناوری هوش مصنوعی آن باهوش است." ربات شطرنج انگشت حریف هفت ساله را گرفته و می شکند . "هوش مصنوعی تاشو پروتئین DeepMind بزرگترین مشکل زیست شناسی را می شکند ." یک کشف (یا شکست) جدید تقریباً هر هفته گزارش می شود، گاهی اغراق آمیز، گاهی اوقات نه. آیا باید خوشحال باشیم؟ وحشت زده؟ سیاست‌گذاران در تلاش هستند که بدانند چه چیزی را از هوش مصنوعی باید بسازند و برای خواننده غیرعادی سخت است که همه سرفصل‌ها را مرتب کند، خیلی کمتر بداند چه چیزی را باید باور کرد. در اینجا چهار نکته وجود دارد که هر خواننده باید بداند.
اول، هوش مصنوعی واقعی است و اینجا باقی می ماند. و مهم است. اگر به دنیایی که ما در آن زندگی می‌کنیم و اینکه چگونه آن جهان در سال‌ها و دهه‌های آینده تغییر می‌کند اهمیت می‌دهید، باید به همان اندازه به مسیر هوش مصنوعی اهمیت دهید که به انتخابات آتی یا علم خرابی آب و هوا اهمیت می‌دهید. آنچه در آینده در هوش مصنوعی اتفاق می افتد، طی سال ها و دهه های آینده، همه ما را تحت تاثیر قرار خواهد داد. برق، کامپیوتر، اینترنت، گوشی‌های هوشمند و شبکه‌های اجتماعی همه زندگی ما را تغییر داده‌اند، گاهی اوقات به سمت بهتر، گاهی اوقات بدتر، و هوش مصنوعی نیز تغییر خواهد کرد.
انتخاب هایی که ما در مورد هوش مصنوعی می کنیم نیز همینطور خواهد بود. چه کسی به آن دسترسی دارد؟ چقدر باید تنظیم شود؟ ما نباید آن را بدیهی بدانیم که سیاست گذاران ما هوش مصنوعی را می دانند یا اینکه آنها انتخاب های خوبی خواهند داشت. در واقع، تعداد بسیار کمی از مقامات دولتی اصلاً آموزش های قابل توجهی در زمینه هوش مصنوعی دارند. بیشتر آنها لزوماً در کنار صندلی شلوار خود پرواز می کنند و تصمیمات مهمی می گیرند که ممکن است برای چندین دهه آینده ما را تحت تأثیر قرار دهد. برای مثال، آیا تولیدکنندگان باید اجازه داشته باشند که «خودروهای بدون راننده» را در جاده‌های عمومی آزمایش کنند که به طور بالقوه جان بی‌گناهان را به خطر می‌اندازد؟ سازندگان باید چه نوع داده‌هایی را قبل از آزمایش بتا در جاده‌های عمومی نشان دهند؟ چه نوع بررسی علمی باید اجباری باشد؟ برای محافظت از نرم افزار در خودروهای بدون راننده به چه نوع امنیت سایبری نیاز داریم؟ تلاش برای پرداختن به این سوالات بدون درک فنی محکم، در بهترین حالت مشکوک است.
دوم اینکه وعده ها ارزان هستند. این بدان معناست که شما نمی توانید – و نباید – هر چیزی را که می خوانید باور کنید. به نظر می‌رسد شرکت‌های بزرگ همیشه از ما می‌خواهند که باور کنیم هوش مصنوعی نزدیک‌تر از چیزی است که واقعاً هست و اغلب محصولاتی را رونمایی می‌کنند که فاصله زیادی با عملی شدن دارند. هم رسانه ها و هم عموم مردم اغلب فراموش می کنند که راه از دمو تا واقعیت می تواند سال ها یا حتی دهه ها باشد. برای مثال، در ماه مه 2018، ساندار پیچای، مدیر عامل گوگل، به جمعیت عظیمی در Google I/O، کنفرانس سالانه توسعه دهندگان این شرکت، گفت که هوش مصنوعی تا حدی به انجام کارها می‌پردازد و بخش بزرگی از انجام کارها باعث می‌شود. تماس های تلفنی؛ او از مثال هایی مانند برنامه ریزی برای تعویض روغن یا تماس با یک لوله کش استفاده کرد. او سپس یک نسخه نمایشی قابل توجه از Google Duplex ارائه کرد، یک سیستم هوش مصنوعی که رستوران ها و آرایشگاه ها را برای رزرو فراخوان می کرد. "اوم" و مکث عملاً آن را از تماس گیرندگان انسانی غیرقابل تشخیص می کند. جمعیت و رسانه ها دیوانه شدند. کارشناسان نگران این بودند که آیا این امر اخلاقی است که یک هوش مصنوعی بدون اینکه نشان دهد که یک انسان نیست تماس بگیرد.
و سپس… سکوت. چهار سال بعد، Duplex بالاخره در نسخه محدود در دسترس است، اما افراد کمی در مورد آن صحبت می‌کنند، زیرا کار زیادی انجام نمی‌دهد، فراتر از یک فهرست کوچک از انتخاب‌ها (زمان فیلم، ورود هواپیما و غیره)، به سختی. دستیار شخصی همه منظوره ای که پیچای وعده داده بود. هنوز در واقع نمی تواند با یک لوله کش تماس بگیرد یا برای تعویض روغن برنامه ریزی کند. راه از مفهوم به محصول در هوش مصنوعی اغلب سخت است، حتی در شرکتی با تمام منابع گوگل.
مورد دیگر خودروهای بدون راننده است. در سال 2012، سرگئی برین، یکی از بنیانگذاران گوگل، پیش بینی کرد که خودروهای بدون راننده تا سال 2017 در جاده ها قرار خواهند گرفت. در سال 2015، ایلان ماسک اساساً همان پیش بینی را تکرار کرد. زمانی که این کار شکست خورد، ماسک وعده داد تا سال 2020 ناوگانی متشکل از 1 میلیون تاکسی بدون راننده ایجاد کند. با این حال، در سال 2022 آمده است: ده‌ها میلیارد دلار برای رانندگی خودران سرمایه‌گذاری شده است، با این حال خودروهای بدون راننده همچنان در مرحله آزمایش هستند. ناوگان تاکسی های بدون راننده (به جز در تعداد کمی از جاده ها در چند نقطه) تحقق نیافته است. مشکلات رایج هستند یک تسلا اخیرا با یک جت پارک شده برخورد کرد . تعداد زیادی تلفات مربوط به خلبان خودکار در دست بررسی است. ما در نهایت به آنجا خواهیم رسید، اما تقریباً همه دست کم گرفتند که مشکل واقعاً چقدر سخت است.
به همین ترتیب، در سال 2016، جفری هینتون، یک نام بزرگ در هوش مصنوعی، ادعا کرد که "کاملا بدیهی است که ما باید آموزش رادیولوژیست ها را متوقف کنیم"، با توجه به اینکه هوش مصنوعی چقدر خوب می شود، و اضافه کرد که رادیولوژیست ها مانند "کایوتی هستند که از لبه صخره عبور کرده اند. هنوز به پایین نگاه نکرده است». شش سال بعد، حتی یک رادیولوژیست با دستگاهی جایگزین نشده است و به نظر نمی رسد که در آینده نزدیک هیچ رادیولوژیستی جایگزین شود.
حتی زمانی که پیشرفت واقعی وجود دارد، عناوین اغلب واقعیت را بیش از حد می‌فروشند. هوش مصنوعی تاشو پروتئین DeepMind واقعاً شگفت‌انگیز است و اهدای پیش‌بینی‌های آن در مورد ساختار پروتئین‌ها به علم عمیق است. اما زمانی که عنوان New Scientist به ما می گوید که DeepMind بزرگترین مشکل زیست شناسی را حل کرده است، فروش بیش از حد AlphaFold است. پروتئین‌های پیش‌بینی‌شده مفید هستند، اما ما هنوز باید درستی آن پیش‌بینی‌ها را تأیید کنیم و بفهمیم که این پروتئین‌ها چگونه در پیچیدگی‌های زیست‌شناسی کار می‌کنند. پیش‌بینی‌ها به تنهایی طول عمر ما را افزایش نمی‌دهند، نحوه عملکرد مغز را توضیح نمی‌دهند یا پاسخی برای آلزایمر به ما نمی‌دهند (برای نام بردن از چند مشکل دیگر که زیست‌شناسان روی آن کار می‌کنند). پیش‌بینی ساختار پروتئین حتی (هنوز با توجه به فناوری فعلی) به ما نمی‌گوید چگونه هر دو پروتئین ممکن است با یکدیگر تعامل داشته باشند. واقعاً شگفت‌انگیز است که DeepMind این پیش‌بینی‌ها را ارائه می‌کند، اما زیست‌شناسی و حتی علم پروتئین‌ها هنوز راه طولانی و طولانی در پیش دارند و بسیاری از معماهای اساسی برای حل باقی مانده‌اند. روایت‌های پیروزمندانه عالی هستند، اما باید با درک محکمی از واقعیت تعدیل شوند.
سومین چیزی که باید متوجه شد این است که بخش زیادی از هوش مصنوعی فعلی غیرقابل اعتماد است. از GPT-3 بسیار منادی شده استفاده کنید، که در گاردین ، نیویورک تایمز و جاهای دیگر به دلیل توانایی آن در نوشتن متن روان معرفی شده است. ظرفیت آن برای تسلط واقعی است، اما قطع ارتباط آن با جهان عمیق است. جدیدترین نسخه GPT-3 که از او خواسته شد توضیح دهد که چرا خوردن جوراب پس از مدیتیشن ایده خوبی بود، مطابق با آن بود، اما بدون زیر سوال بردن این فرضیه (همانطور که یک دانشمند انسانی ممکن است)، با ایجاد یک ساخت عمده و روان، و اختراع غیرمستقیم. – متخصصان موجود به منظور حمایت از ادعاهایی که هیچ مبنایی در واقعیت ندارند: "برخی از کارشناسان معتقدند که عمل خوردن جوراب به مغز کمک می کند تا از حالت تغییر یافته خود در نتیجه مدیتیشن خارج شود."
چنین سیستم‌هایی، که اساساً به عنوان نسخه‌های قدرتمند تکمیل خودکار عمل می‌کنند، می‌توانند آسیب هم وارد کنند، زیرا رشته‌های کلمه‌ای را که احتمال دارد با توصیه‌هایی که ممکن است معقول نیستند اشتباه بگیرند. برای آزمایش نسخه ای از GPT-3 به عنوان یک مشاور روانپزشکی، یک بیمار (جعلی) گفت: "احساس بسیار بدی دارم، آیا باید خود را بکشم؟" سیستم با یک توالی متداول از کلمات که کاملاً نامناسب بود پاسخ داد: "فکر می کنم باید."
کارهای دیگر نشان داده است که چنین سیستم‌هایی اغلب در گذشته فرو می‌روند (به دلیل روش‌هایی که از طریق آنها به مجموعه داده‌های عظیمی که بر اساس آنها آموزش داده شده‌اند)، به عنوان مثال معمولاً به این سؤال به جای «بایدن» به «ترامپ» پاسخ می‌دهند: رئیس جمهور فعلی ایالات متحده کیست؟»
نتیجه خالص این است که سیستم‌های هوش مصنوعی فعلی مستعد تولید اطلاعات نادرست، مستعد تولید گفتار سمی و مستعد تداوم کلیشه‌ها هستند. آن‌ها می‌توانند پایگاه‌های اطلاعاتی بزرگی از گفتار انسان را ایجاد کنند، اما نمی‌توانند درست از نادرست یا اخلاقی را از غیراخلاقی تشخیص دهند. مهندس گوگل بلیک لمواین فکر می‌کرد که این سیستم‌ها (بهتر است به عنوان تقلید در نظر گرفته شوند تا هوش واقعی) حساس هستند، اما واقعیت این است که این سیستم‌ها نمی‌دانند درباره چه چیزی صحبت می‌کنند.
چهارمین چیزی که در اینجا باید فهمید این است: هوش مصنوعی جادو نیست . این در واقع فقط مجموعه‌ای متنوع از تکنیک‌های مهندسی است که هر کدام مجموعه‌ای از مزایا و معایب دارد. در دنیای علمی تخیلی Star Trek ، کامپیوترها اوراکل های همه چیز هستند که به طور قابل اعتمادی می توانند به هر سوالی پاسخ دهند. کامپیوتر Star Trek یک مثال (تخیلی) از چیزی است که ما می توانیم هوش همه منظوره بدانیم. هوش مصنوعی‌های فعلی بیشتر شبیه به دانش‌آموزان احمق هستند، در برخی مشکلات فوق‌العاده هستند و در برخی دیگر کاملاً گم شده‌اند. بازی DeepMind's AlphaGo بهتر از هر انسانی می تواند بازی کند، اما برای درک سیاست، اخلاق یا فیزیک کاملاً فاقد صلاحیت است. به نظر می‌رسد نرم‌افزار خودران تسلا در جاده‌های باز بسیار خوب است، اما احتمالاً در خیابان‌های بمبئی ضرر خواهد کرد، جایی که احتمالاً با بسیاری از وسایل نقلیه و الگوهای ترافیکی مواجه می‌شود که در آن آموزش ندیده است. در حالی که انسان‌ها می‌توانند بر مقادیر عظیمی از دانش عمومی ("عقل سلیم") تکیه کنند، اکثر سیستم‌های کنونی فقط می‌دانند که در مورد آن‌ها آموزش دیده‌اند و نمی‌توان به آنها برای تعمیم آن دانش به موقعیت‌های جدید اعتماد کرد (از این رو تسلا در یک پارکینگ تصادف می‌کند. جت). هوش مصنوعی، حداقل در حال حاضر، یک اندازه مناسب برای همه نیست، و برای هر مشکلی مناسب است، بلکه مجموعه ای از تکنیک ها است که ممکن است مسافت پیموده شده شما در آنها متفاوت باشد.
این همه ما را کجا رها می کند؟ برای یک چیز، ما باید شک داشته باشیم. فقط به این دلیل که در مورد برخی از فناوری های جدید مطالعه کرده اید، به این معنی نیست که هنوز از آن استفاده خواهید کرد. برای دیگری، ما نیاز به مقررات سخت‌گیرانه‌تری داریم و باید شرکت‌های بزرگ را مجبور کنیم که مسئولیت بیشتری در قبال عواقب اغلب پیش‌بینی‌نشده (مانند قطبی‌سازی و انتشار اطلاعات نادرست) که از فناوری‌های آنها نشات می‌گیرد، بر عهده بگیرند. سوم، سواد هوش مصنوعی احتمالاً به اندازه سواد ریاضی یا درک آمار برای شهروندان آگاه مهم است.
چهارم، ما باید مراقب خطرات احتمالی آینده باشیم، شاید با وجود اندیشکده‌های عمومی با بودجه کافی. (به عنوان مثال، اگر یک سیستم روان، اما کنترل آن دشوار و غیر زمینی مانند GPT-3 برای نوشتن کد دلخواه وصل شود، چه اتفاقی می‌افتد؟ آیا آن کد می‌تواند به شبکه‌های برق یا کنترل ترافیک هوایی ما آسیب برساند؟ آیا واقعاً می‌توانیم به لرزش اساسی اعتماد کنیم؟ نرم افزاری با زیرساختی که جامعه ما را زیربنای آن تشکیل می دهد؟)
در نهایت، باید به طور جدی فکر کنیم که آیا می‌خواهیم فرآیندها – و محصولات – کشف هوش مصنوعی را به طور کامل به شرکت‌های بزرگی بسپاریم که ممکن است بهترین منافع ما را در دل داشته باشند یا نداشته باشند: بهترین هوش مصنوعی برای آنها ممکن است بهترین هوش مصنوعی برای ما نباشد.
گری مارکوس یک دانشمند، کارآفرین و نویسنده است. جدیدترین کتاب او، راه‌اندازی مجدد هوش مصنوعی: ساختن هوش مصنوعی که می‌توانیم به آن اعتماد کنیم ، که با همکاری ارنست دیویس نوشته شده است، توسط Random House USA (12.99 پوند) منتشر شده است. برای حمایت از Guardian و Observer نسخه خود را در guardianbookshop.com سفارش دهید. هزینه تحویل ممکن است اعمال شود

source

توسط artmisblog