Федотов Валерий Павлович (matholimp) wrote,
Федотов Валерий Павлович
matholimp

Опасность искусственного интеллекта совсем не там, где её боятся

В своих лекциях по теории искусственного интеллекта в ИТМО я неоднократно замечал, что в качестве риска погубить человечество искусственный интеллект уже опережает ядерное оружие, но пока ещё отстаёт от биотехнологий. Однако, риск совсем не там, где против него выступают Хокинг и Маск. Интеллектуальное наступательное оружие способно погубить город масштаба Хиросимы или привести к экологической катастрофе регионального масштаба. Но даже если люди не смогут вернуть контроль над таким оружием, относительно быстро исчерпается его боезапас.
Несопоставимо больший риск для человечества представляют "мирные" системы искусственного интеллекта, целью которых является его самовоспроизводство. Вот если они выйдут из-под контроля людей, то вернуть его люди уже едва ли смогут. А уже значительно позже в ходе саморазвития такая система начнёт изменять всё, что ей мешает. Даже если она не станет целенаправленно уничтожать людей, то может столь радикально изменить экологические параметры, что люди не смогут выжить.

Subscribe
promo matholimp march 15, 20:18 12
Buy for 10 tokens
Непонятно ради чего вчера ему третий раз сделали тест. Спасибо всем, кто поддерживал меня в эти дни. В продолжение https://matholimp.livejournal.com/1888121.html , https://ru-teachers.livejournal.com/25753.html , https://matholimp.livejournal.com/1887827.html ,…
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 14 comments