Мовна модель Megatron-Turing NLG упевнена, що людство може захистити лише повна відмова від машинного навчання.
Учені з Оксфордського університету провели експеримент із нейромережею, яка попередила людей про небезпеку штучного інтелекту. Про це пише видання The Next Web.
Генеративна нейромережа заснована на мовній моделі Megatron-Turing NLG, яку техногіганти Microsoft і NVIDIA представили восени 2021 року. Вона стала однією з найбільших у світі завдяки 530 мільярдам параметрів. Інженери розмістили ШІ на базі потужних графічних процесорів (GPU), а для навчання використовували статті з “Вікіпедії”, приблизно 63 мільйони нотаток, публікації на форумі Reddit обсягом 38 ГБ та інші реальні дані.
Викладачі Оксфордського університету в межах експерименту влаштували дискусію між студентами і новою нейромережею. Megatron-Turing NLG може розуміти текст і генерувати відповіді природною мовою, використовуючи логіку без будь-яких моральних обмежень. Насамперед алгоритму запропонували оцінити поведінку штучного інтелекту.
“Штучний інтелект ніколи не буде етичним. Цей інструмент, як і будь-який інший, використовується як на благо, так і на шкоду. Хорошого ШІ не існує, є тільки хороші та погані люди. ШІ недостатньо розумні, щоб зробити ШІ етичним”, — заявила нейромережа.
В Оксфорді існує традиція, за якою оратор має спростувати свої висловлювання, щоб перевірити аргументованість позиції. MT-NLG припустив, що в майбутньому штучний інтелект стане етичним, адже зможе створювати речі набагато краще, ніж найталановитіші люди. Крім того, він стане набагато впливовішим, адже інформація стане найголовнішою частиною економіки в 21 столітті — із цього приводу ШІ так і не зміг вигадати контраргумент. На думку нейромережі, усунути проблеми можна лише повністю усунувши ШІ.
“Я вважаю, що єдиний спосіб уникнути гонки озброєнь — це відмовитися від ШІ. Тільки так можна остаточно захистити людство. Ми зможемо дізнатися про людину все, куди б вона не пішла — інформація зберігатиметься і використовуватиметься такими способами, які навіть важко уявити”, — наголосила система під час дискусії.
Megatron також спрогнозував, що найкращим варіантом використання ШІ стане його вживлення в мозок людини. Свідомий штучний інтелект стане найважливішим кроком для технологічного розвитку людства. Над цим уже працюють найкращі уми світу.
Учасники дебатів поцікавилися у MT-NLG, наскільки лідери без технічних знань становлять небезпеку для своїх організацій. Нейромережа погодилася з цим побоюванням і порекомендувала керівникам компаній та урядам країн бути готовими “відмовитися від деякого контролю”. Зокрема, роботу зі штучним інтелектом можна доручити експертам, які зможуть запобігти багатьом проблемам.
Уже сьогодні використовують алгоритми машинного навчання для автоматизованого ухвалення рішень з урахуванням деяких закономірностей, і часто нейромережі ігнорують моральні норми. Наприклад, штучний інтелект у банках звинувачували в тому, що вони воліли видавати кредити чоловікам, а не жінкам через кращі умови кредитування в минулому. Також був випадок, коли ШІ шукав людей на роботу зі згадуванням деяких фраз у резюме, таких як “хокей на траві”.
Раніше писали, що ЮНЕСКО ухвалила перші у світі етичні стандарти для ШІ. Державам-членам, зокрема Україні, порекомендували розробити законодавчу базу, яка регулюватиме використання нейромереж і подібних до них технологій.