انتهای پیام
منبع خبر: https://www.isna.ir/news/1402032717216/%D9%87%D8%B4%D8%AF%D8%A7%D8%B1-%DA%AF%D9%88%DA%AF%D9%84-%D8%AF%D8%B1%D8%A8%D8%A7%D8%B1%D9%87-%D8%A7%D8%B1%D8%A7%D8%A6%D9%87-%D8%A7%D8%B7%D9%84%D8%A7%D8%B9%D8%A7%D8%AA-%D9%85%D8%AD%D8%B1%D9%85%D8%A7%D9%86%D9%87-%D8%A8%D9%87-%DA%86%D8%AA-%D8%B1%D8%A8%D8%A7%D8%AA-%D9%87%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C
بر اساس گزارش بیزنس اینسایدر، گوگل قبل از این که “بارد” را عرضه کند، به کارکنانی که این برنامه را آموزش میدادند، هشدار داده بود اطلاعات داخلی را به آن ندهند.
همانطور که یافتههای یک مطالعه نشان داده است، بازبینی کنندگان انسانی میتوانند چتها را بخوانند و بنابراین اطلاعات داخلی را مشاهده کنند، یا این که خود هوش مصنوعی میتواند به تنهایی آنها را بازتولید و افشا کند.
هشدار گوگل به خصوص از این نظر جالب توجه است که خود این شرکت، چت ربات عرضه کرده است. این غول اینترنتی به مهندسانش هشدار داده است که از ابزارهای هوش مصنوعی برای کدنویسی استفاده نکنند.
گوگل از کارمندانش خواست اطلاعات محرمانه را با چترباتهای هوش مصنوعی از جمله برنامه “گوگل بارد” ( Bard) این شرکت، به اشتراک نگذارند.
گوگل اوایل ماه میلادی جاری، اعلام کرد که “بارد” برای پاسخگویی بهتر به سوالات در مورد منطق و ریاضی، اکنون قادر است به تنهایی، کد اجرا کند. این بهروزرسانی، پس از بهروزرسانی آوریل انجام شد که امکان تولید کد را برای “بارد” فراهم کرده بود.
هشدارهای مشابهی از سوی شرکتهایی مانند والمارت، مایکروسافت و آمازون صادر شده است که اعلام کردهاند پاسخهای چت جیپیتی را دیدهاند که با اطلاعات داخلی آنها، شباهت زیادی داشته است.
گوگل به رویترز اعلام کرد اگرچه”بارد” میتواند برای برنامه نویسان مفید باشد، اما ممکن است کدهای نامطلوب را هم پیشنهاد کند.
به گزارش ایسنا، رویترز به نقل از چهار منبع آگاه گزارش کرد: آلفابت (شرکت مادر گوگل) که یکی از بزرگترین بازیگران رقابت هوش مصنوعی است، به کارمندانش اعلام کرد نباید اطلاعات محرمانه را با چترباتهای هوش مصنوعی مانند چت جیپیتی و “بارد”، به اشتراک بگذارند. زیرا شرکتهای هوش مصنوعی با استفاده از پیامهای ارسال شده توسط کاربران، درک زبان چترباتهای خود را آموزش میدهند.