Според нов доклад на изследователи от Станфордския университет технологичните компании, които са обещали да подкрепят етичното развитие на изкуствения интелект, не успяват да изпълнят обещанията си, тъй като безопасността отстъпва на заден план пред показателите за ефективност и пускането на продукти на пазара, съобщава Ройтерс.
Въпреки че публикуват принципи на ИИ и наемат социолози и инженери за провеждане на изследвания и разработване на технически решения, свързани с етиката на изкуствения интелект, много частни компании все още не са определили като приоритет приемането на етични гаранции, се казва в доклад на Станфордския институт за ИИ ориентиран към човека, публикуван в четвъртък.
„Компаниите често „говорят“ за етиката на изкуствения интелект, но рядко „вървят по стъпките“, като осигуряват адекватно ресурсно обезпечаване и оправомощаване на екипите, които работят върху това да е отговорен“, казват изследователите Сана Джей Али, Анджеле Кристин, Андрю Смарт и Рийта Катила в доклада, озаглавен „Да вървим по стъпките на етиката на изкуствения интелект в технологичните компании“.
Въз основа на опита на 25 „специалисти по етика на изкуствения интелект“ в доклада се казва, че работниците, които се занимават с популяризиране на етиката му, се оплакват от липса на институционална подкрепа и от изолираност от други екипи в големите организации въпреки обещанията за обратното. Служителите съобщават за култура на безразличие или враждебност от страна на продуктовите мениджъри, които смятат, че работата им вреди на производителността, приходите или сроковете за пускане на продукти на пазара, се казва в доклада.
„Да се изказваме шумно за поставяне на повече спирачки върху развитието на изкуствения интелект беше рисковано“, каза един от анкетираните за доклада. „Това не беше заложено в процеса.“
Не се посочват имената на компаниите, в които работят анкетираните служители.
Правителствата и академичните среди изразяват загриженост относно скоростта на развитие на изкуствения интелект, като етичните въпроси засягат всичко – от използването на лични данни до расовата дискриминация и нарушаването на авторските права. Тези опасения се засилват след пускането на ChatGPT от OpenAI миналата година и последвалото развитие на конкурентни платформи като Gemini на Google.
Служителите казват на изследователите от Станфорд, че етичните въпроси често се разглеждат много късно в процеса на развитие, което затруднява адаптирането към нови приложения или софтуер, и че етичните съображения често се нарушават от честата реорганизация на екипите.
„Показателите, свързани с ангажираността или ефективността на моделите на изкуствения интелект, са толкова приоритетни, че препоръките, свързани с етиката, които биха могли да повлияят отрицателно на тези показатели, изискват неопровержими количествени доказателства“, се казва в доклада.
„И все пак количествените показатели за етичност или справедливост са трудни за намиране и предизвикателни за определяне, тъй като съществуващите инфраструктури за данни на компаниите не са пригодени за такива показатели“, заключава доклада.