این شرکت گفت که بلیک لمواین خط‌مشی‌های گوگل را نقض کرده و ادعاهای او "کاملاً بی‌اساس" است.
گوگل یک مهندس نرم افزار ارشد را که ادعا می کرد چت ربات هوش مصنوعی این شرکت LaMDA فردی خودآگاه بود، اخراج کرد.
گوگل که ماه گذشته مهندس نرم‌افزار بلیک لمواین را به مرخصی گرفت ، گفت که او خط‌مشی‌های شرکت را نقض کرده است و ادعاهای او در مورد LaMDA (مدل زبانی برای برنامه‌های گفتگو) را «کاملاً بی‌اساس» می‌داند.
گوگل گفت: «مایه تاسف است که علی‌رغم تعامل طولانی در این موضوع، بلیک همچنان تصمیم گرفت به طور مداوم سیاست‌های شفاف استخدامی و امنیت داده‌ها را که شامل نیاز به حفاظت از اطلاعات محصول است، نقض کند.
سال گذشته، گوگل گفت LaMDA بر اساس تحقیقات این شرکت ساخته شده است که نشان می‌دهد مدل‌های زبان مبتنی بر ترانسفورماتور آموزش‌دیده در گفتگو می‌توانند اساساً درباره هر چیزی صحبت کنند.
Lemoine، مهندس سازمان مسئول هوش مصنوعی گوگل، سیستمی را که روی آن کار می‌کرد، با درک و توانایی بیان افکار و احساساتی که معادل یک کودک انسان بود، توصیف کرد.
لموئین، 41 ساله، "اگر نمی دانستم دقیقاً چیست، این برنامه رایانه ای است که اخیراً ساخته ایم، فکر می کنم یک کودک هفت ساله و هشت ساله است که اتفاقاً فیزیک می داند." به واشنگتن پست گفت .
او گفت که LaMDA او را در گفتگوهایی در مورد حقوق و شخصیت درگیر کرده است، و Lemoine یافته‌های خود را در ماه آوریل در GoogleDoc با عنوان «آیا LaMDA حساس است؟» با مدیران شرکت به اشتراک گذاشت.
مهندس متنی از مکالمات جمع آوری کرد که در آن در یک نقطه از سیستم هوش مصنوعی می پرسد که از چه چیزی می ترسد.
گوگل و بسیاری از دانشمندان برجسته به سرعت دیدگاه های Lemoine را نادرست رد کردند و گفتند LaMDA صرفاً یک الگوریتم پیچیده است که برای تولید زبان انسانی قانع کننده طراحی شده است.
اخراج Lemoine اولین بار توسط Big Technology، یک خبرنامه فناوری و جامعه گزارش شد.

source

توسط artmisblog