گزارش ها نشان می دهد که متا به زودی از هوش مصنوعی برای ارزیابی خطر در بیشتر محصولات خود به جای بررسی های انسانی استفاده خواهد کرد.
به گفته اینا ، متا قصد دارد وظیفه را برای ارزیابی خطرات احتمالی محصولات بازرسی انسانی خود به سیستم های هوش مصنوعی منتقل کند تا روند سریعتر این روند انجام شود. اسناد داخلی که NPR به دست آورده است نشان می دهد که متا قصد دارد تا 5 ٪ از ارزیابی های خطر هوش مصنوعی را ارائه دهد. این شرکت حتی استفاده از هوش مصنوعی در مناطق حساس مانند خطرات کودکان و مشکلات “صداقت” را بررسی می کند. منظور من “صداقت” حفظ سلامت و اعتماد به نفس عمومی سیستم عامل های متا است. مفهومی که شامل مقابله با محتوای خشونت آمیز ، اطلاعات نادرست ، نفرت ، آزار و اذیت و سایر تهدیدهای اخلاقی و اجتماعی است.
کارمندان متا فعلی و سابق که با NPR صحبت کرده اند هشدار داده اند که هوش مصنوعی می تواند خطرات جدی را نادیده بگیرد. خطراتی که گروه های انسانی قادر به شناسایی آنها بوده اند.
در گذشته ، به روزرسانی های جدید و ویژگی های سیستم عامل هایی مانند اینستاگرام و واتس اپ در نظر گرفته شده بود. طبق گفته NPR ، متا تمرکز خود را در استفاده از هوش مصنوعی طی دو ماه گذشته دو برابر کرده است. گروه های محصول اکنون باید پرسشنامه ای را برای محصول خود پر کنند و آن را به سیستم اطلاعات مصنوعی ارائه دهند. این سیستم معمولاً “راه حل فوری” را صادر می کند ، که شامل شناسایی مناطق خطر است. سپس گروه ها باید بر اساس این تخمین ها عمل کنند تا بتوانند محصول را تحویل دهند.
یک مدیر سابق متا می گوید: کاهش تحقیقات انسانی به معنای پذیرش بیشتر در معرض خطر و تأثیرات منفی تغییرات کمتر در محصول است که قبل از مشکلات جهان پیشگیری می شود.
متا در بیانیه ای گفت که وی همچنان به استفاده از “تجربه انسانی” برای ارزیابی موضوعات جدید و پیچیده و تصمیم گیری در مورد موارد “پایین” هوش مصنوعی خواهد پرداخت.
این خبر فقط چند روز پس از گزارش های فصلی اخیر در مورد صداقت سیستم عامل های آن منتشر می شود. گزارشی که اولین بار پس از تغییر سیاست های شرکت در مورد اصلاح و تأیید محتوا در سال جاری است. براساس این گزارش ، حجم محتوای حذف شده کاهش یافته است ، اما آزار و اذیت ، خشونت و محتوای گرافیکی اندکی افزایش یافته است.
پایان پیام
منبع خبر: https://www.isna.ir/news/1404031106808/%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%A8%D8%A7%D8%B2%D8%B1%D8%B3-%D9%85%DB%8C-%D8%B4%D9%88%D8%AF