Технологичният гигант Meta обяви, че започва да използва публични публикации на потребители от Европейския съюз за обучение на своите модели на изкуствен интелект. Новината предизвика остра реакция от страна на правозащитни организации, регулатори и политици в Европа.
От юни 2025 г. Meta – собственик на Facebook, Instagram и WhatsApp – започва да използва съдържание, публикувано от пълнолетни потребители в ЕС, за да обучава своя генеративен изкуствен интелект, включително модела LLaMA. Това включва публикации, коментари и взаимодействия с чатбота Meta AI. Изрично е посочено, че лични съобщения и съдържание от лица под 18 години няма да бъдат използвани.
Компанията посочва като правно основание за тази обработка така наречения „легитимен интерес“, въпреки че самите потребители не са дали изрично съгласие и дори не са били ясно уведомени.
Европейският отзвук
Редица европейски организации реагираха остро. Австрийската неправителствена организация NOYB (None of Your Business), водена от известния защитник на личните данни Макс Шремс, подаде официално възражение и настоя Meta да прекрати тази практика. Според тях компанията използва така наречените „тъмни модели на интерфейс“ (dark patterns), които затрудняват потребителите да открият формата за отказ и ги подвеждат при опит да защитят своите права.
В Германия съд в Кьолн отхвърли искане за спиране на инициативата, приемайки аргумента, че Meta действа в рамките на закона. Съдът се съгласи, че компанията има легитимен интерес да използва публичното съдържание за подобряване на своите услуги.
Ирландската Комисия за защита на данните (DPC), която е основният регулаторен орган за Meta в ЕС, също се включи в темата. Регулаторът настоя, че потребителите трябва да имат реална и лесно достъпна възможност да възразят, и увери, че ще следи внимателно развитието на случая.
Meta събира данни по целия свят
Не само в Европа практиката на Meta предизвиква тревога. В Австралия стана ясно, че компанията е използвала съдържание на потребители още от 2007 г. за трениране на свои AI модели – отново без ясно съгласие. Подобна практика повдига въпроси за глобалния контрол върху личната информация и корпоративната отговорност.
Български отзвук
В България народният представител Божидар Божанов също реагира на новината. В своя позиция той подчерта, че използването на лични публикации за обучение на ИИ е допустимо само при спазване на определени условия.
Обучението на изкуствен интелект може да е в обществен интерес, но това не означава, че компаниите могат свободно да експлоатират публични данни. Ако моделите са обучени с такава информация, те трябва да бъдат с отворен код и под публичен контрол, заяви Божанов.
Той припомни, че в изготвения от него законопроект за регулация на ИИ у нас вече са заложени принципи на прозрачност, откритост и отчетност, както и забрана за скрито събиране на данни без информирано съгласие.
Ако решите да подкрепите КритичноБГ, може да го направите тук. Предварително благодаря!
Дарения Revolut: @mariyatkwa

Дарения PayPal: @MariyanIvIvanov