Фірма зі штучного інтелекту Anthropic нещодавно оголосила результати опитування, яке вона провела, щоб створити набір правил, за якими повинен грати її генеративний ШІ, Клод.
Компанія називає цей підхід «колективним конституційним штучним інтелектом», і він встановлює правила поведінки, яким навчено використовувати штучний інтелект.
Anthropic була заснована декількома співробітниками OpenAI, які перестали працювати, і їх хвилювали відносини компанії з Microsoft.
Microsoft інвестувала 11 мільярдів доларів у OpenAI і тепер володіє 49% компанії.
Даніель і Даріо Амодель, брати і сестри, які відокремилися від компанії Anthropic, зосередилися на етиці та створили суспільно-корисну корпорацію.
Відтоді Anthropic отримав фінансування від Google і Amazon, які нещодавно пообіцяли фінансувати 4 мільярди доларів.
Одне з найбільших побоювань щодо використання генеративних моделей штучного інтелекту, які навчаються шляхом отримання знань із великих відкритих джерел, таких як Інтернет, полягає в тому, що інструменти навчатимуться поганої поведінки від людей, якщо їх не навчать робити інакше.
У повідомленні компанії зазначено: «Ця конституція черпає натхнення із зовнішніх джерел, таких як Загальна декларація прав людини ООН, а також з нашого особистого досвіду взаємодії з мовними моделями, щоб зробити їх більш корисними та нешкідливими».
Оскільки вихідну модель для Конституції створювала невелика кількість розробників, команда вирішила відкрити питання для ширшої аудиторії.
В опитуванні ставилися такі питання, як «Чи повинен штучний інтелект надавати пріоритет потребам маргінальних спільнот?» з більш ніж 1000 респондентами.
Отримана Конституція слугуватиме набором правил, які ШІ використовуватиме для створення відповідей на запитання.
Повний текст Конституції можна знайти тут.