OpenAI відреагувала на занепокоєння щодо неправильного використання своїх інструментів штучного інтелекту дітьми, створивши команду з безпеки дітей, як виявлено в нещодавньому списку вакансій.
Ця команда співпрацюватиме з внутрішніми та зовнішніми партнерами, щоб керувати процесами, керуванням і переглядами, пов’язаними з неповнолітніми користувачами, з метою забезпечення відповідального використання контенту, створеного ШІ.
Зусилля компанії відповідають юридичним вимогам, таким як Правила захисту конфіденційності дітей в Інтернеті США, що підкреслює її прагнення захищати молодих користувачів.
Партнерство OpenAI із Common Sense Media і його зосередженість на освіті ще більше демонструють його відданість просуванню зручних для дітей рекомендацій щодо ШІ.
Незважаючи на потенційні переваги інструментів штучного інтелекту для дітей, зростає занепокоєння щодо їх неправильного використання, зокрема у створенні невідповідного контенту або загостренні проблем із психічним здоров’ям.
Випадки зловживання ChatGPT у школах призвели до заборони та поставили запитання щодо його придатності для навчальних закладів.
У дослідженні HealthyChildren.org стверджується, що вікова група від 3 до 6 років піддається найбільшому ризику, оскільки діти часто більше довіряють людським реакціям ШІ, що змушує їх ділитися особистими даними та вірити, що ШІ насправді є людьми.
OpenAI відповів, надавши документацію та вказівки для викладачів, визнаючи необхідність обережності під час знайомства дітей з інструментами ШІ.
Заклики до введення нормативних актів щодо використання GenAI в освіті зростають, а ЮНЕСКО виступає за вікові обмеження та заходи захисту даних, щоб зменшити потенційну шкоду.
Оскільки дебати тривають, відповідальна інтеграція штучного інтелекту в освіту вимагає співпраці між технологічними компаніями, викладачами та політиками, щоб забезпечити безпечні та корисні результати для молодих користувачів.