У компанії зафіксували випадки, коли співробітники завантажували конфіденційний код на платформу. Про це повідомляє bykvu.com з посиланням на Bloomberg.
У компанії стурбовані тим, що дані, які отримують такі чат-боти, як Google Bard і Bing, зберігаються на зовнішніх серверах. Це ускладнює їх пошук і видалення. Крім того, зберігання коду у такому форматі може призвести до того, що вони стануть відомі іншим користувачам.
За результатами опитування всередині компанії, 65% респондентів вважають, що подібні сервіси становлять ризик для безпеки. Минулого місяця інженери Samsung випадково виклали внутрішній вихідний код, завантаживши його в ChatGPT, але, що саме містила ця інформація – невідомо.
Представник Samsung підтвердив, що компанія сповістила співробітників про заборону використання сервісів генеративного ШІ. Рішення стосується роботи на комп’ютерах, планшетах і телефонах компанії, а також в її внутрішніх мережах.
Компанія не забороняє користуватися ШІ для власних цілей, але співробітники не повинні надавати жодної інформації, пов’язаної з Samsung, або персональними даними, які можуть розкрити її інтелектуальну власність. Порушення нових правил може призвести до звільнення.
Не забудьте підписатись на наш телеграм-канал. Там ще більше оперативної інформації!