Openai ، یک توسعه دهنده اطلاعاتی مصنوعی چتپپ و مشهور ، یک مرکز ارزیابی ایمنی جدید ایجاد کرده است که به طور مرتب به روز می شود تا در مورد توهمات و محتوای مضر از هوش مصنوعی شفاف تر باشد.
به گفته ایزناOpenAI یک صفحه وب جدید به نام مرکز ارزیابی ایمنی را راه اندازی می کند تا اطلاعات مربوط به عناصری مانند توهم مدل های آن را به اشتراک بگذارد.
این مرکز همچنین نشان می دهد که اگر الگویی از محتوای مضر تولید کند و سعی در اصلاح آن داشته باشد ، چگونه می توان به ترتیب عمل کرد.
شرکت فناوری ادعا می کند که این صفحه جدید شفافیت بیشتری نسبت به هوش مصنوعی باز فراهم می کند. شرکتی که در حال حاضر برای استفاده غیرقانونی از مواد بر اساس مواد برای یادگیری مدلهای هوش مصنوعی خود با دادخواستهای بی شماری روبرو شده است.
این مرکز ایمنی برای گسترش نظارت Openia که به طور مداوم به روز می شود ، طراحی شده است.
Openai می گوید: “با توسعه علم ارزیابی هوش مصنوعی ، هدف ما این است که پیشرفت خود را در توسعه راه های برجسته تر برای اندازه گیری قابلیت ها و ایمنی مدل ها به اشتراک بگذاریم.” با به اشتراک گذاشتن یک شرکت تابعه از نتایج ارزیابی ایمنی در اینجا ، امیدواریم که این امر نه تنها درک کارآیی سیستم های OpenIA را با گذشت زمان تسهیل کند ، بلکه از تلاش های جامعه برای افزایش شفافیت در سراسر منطقه نیز پشتیبانی می کند.
این شرکت می افزاید: در تلاش است تا در این زمینه ارتباطات فعال تری برقرار کند.
ذینفعان می توانند هر یک از مراکز را مشاهده کرده و اطلاعات مربوط به مدل های مربوطه مانند “GPT-4.1” تا 4.5 را رصد کنند.
AI Open خاطرنشان می کند که اطلاعات ارائه شده در مرکز فقط یک “عکس فوری” است و علاقه مندان باید برای جزئیات بیشتر به ارزیابی ها و سایر اطلاعات نگاه کنند.
یکی از نکات مهم کل مرکز ارزیابی ایمنی این است که OpenII نهادی است که این آزمایشات را انجام می دهد و چه اطلاعاتی را برای به اشتراک گذاشتن عمومی انتخاب می کند. در نتیجه ، هیچ راهی برای اطمینان از اینكه شركت تمام سؤالات یا نگرانی ها را با مردم به اشتراک می گذارد ، وجود ندارد.
پایان پیام
منبع خبر: https://www.isna.ir/news/1404022618634/%D9%82%D9%88%D9%84-%D8%B4%D9%81%D8%A7%D9%81%DB%8C%D8%AA-%D8%A8%DB%8C%D8%B4%D8%AA%D8%B1-%D8%AF%D8%B1-%D9%85%D9%88%D8%B1%D8%AF-%D8%AA%D9%88%D9%87%D9%85%D8%A7%D8%AA-%D9%88-%D9%85%D8%AD%D8%AA%D9%88%D8%A7%DB%8C-%D9%85%D8%B6%D8%B1-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%A7%D8%B2-%D8%B3%D9%88%DB%8C