Купити квартиру в Дніпрі

Штучний інтелект стане загрозою людству – залишилось 5 років

Штучний інтелект стане загрозою людству – залишилось 5 років3

Штучний інтелект стане загрозою людству у найближчі п’ять-десять років. Ситуацію можна порівняти з бомбардуванням японських міст Хіросіма та Нагасакі атомними бомбами у 1945 році.

Такий похмурий прогноз дав колишній генеральний директор Google Ерік Шмідт, який зараз є головою Комісії національної безпеки США з питань штучного інтелекту. Про це пише The Byte, передає НСН.

“Після Нагасакі та Хіросіми знадобилося 18 років, щоб укласти договір про заборону випробувань (атомної зброї) і тому подібне”, сказав він, підкресливши, що сьогодні у людства просто “немає стільки часу”.

Штучний інтелект стане загрозою людству – залишилось 5 років

Відомо, що компанії, які працюють із штучним інтелектом, від OpenAI до Google, встановили певні заходи безпеки, які мають стримувати технологію, але Шмідт переконаний, що нинішніх заходів “недостатньо”.

Експерт вважає, що всього за п’ять-десять років ШІ може стати достатньо потужним, щоб завдати шкоди людству.

Найгіршим сценарієм, за його словами, буде “момент, коли комп’ютер може почати приймати власні рішення”.

Шмідт попереджає, що якщо паралельно із цим ШІ зможе отримати доступ до систем озброєння або досягти інших жахливих можливостей, машини можуть почати брехати людям про це.

Він вважає, що для запобігання цьому жахливому результату необхідно створити неурядову організацію на кшталт Міжурядової групи експертів ООН зі зміни клімату, яка б “надавала точну інформацію політикам” і допомагала приймати рішення про те, що робити, якщо ШІ стане надто потужним.

Варто зауважити, що поки одні вчені бачать у ШІ екзистенційну загрозу для людства, інші – є більш скептичними щодо цього.

Так, Ян ЛеКун, який очолює відділ ШІ у компанії Meta, не вважає технологію достатньо розумною для того, аби вона могла самостійно загрожувати людству. Тобто, ШІ може бути загрозою, але тільки якщо ним керуватиме хтось із зловісними замислами щодо людства.

“Дебати про екзистенційний ризик дуже передчасні, поки ми не розробимо систему, яка за здатністю до навчання не поступатиметься навіть кішці, чого у нас поки що немає”, заявив ЛеКун в інтерв’ю FT.

Раніше ми писали про те, що запас даних для навчання штучного інтелекту закінчується.

Читайте ще: Епічний кінець: вчені розповіли, як помре Земля

To Top
Розділи
Назад
Важливі
Новини
Lite
Допо-га
×