Новинка: стив возняк не сомневается в угрозе искусственного интеллекта

Опубликовано: 29.6.2017
стив возняк не сомневается в угрозе искусственного интеллекта

Годами соучредитель компании Apple Стив Возняк отрицал, что технологии, особенно искусственный интеллект, могут угрожать людям. Однако в недавнем интервью изданию Australian Financial Review 64-летний изобретатель признал, что некоторые прогнозы начинают сбываться, а человекоподобные компьютеры представляют реальную опасность для человечества. Он даже пошутил: «Кем мы будем: богами, домашними животными или муравьями? Я не знаю».

Ученые опасаются, что высокоразвитые машины начнут учиться выполнять любую работу и будут постепенно вытеснять человека. Основания для беспокойства есть. Согласно прогнозу аналитической фирмы Boston Consulting Group, к 2025 году количество автоматизированных операций увеличится на 25 процентов. Наиболее ярко этот тренд сейчас выражен в Японии.

Компьютеры собираются превзойти людей. Если мы продолжим создавать устройства для облегчения жизни, то в конце концов они станут сообразительнее нас и начнут избавляться от нерасторопных людей, чтобы эффективнее управлять компаниями, — заявил Стив Возняк.

Авторы документа признают не только огромный потенциал ИИ, но и расставляемые им ловушки. В краткосрочной перспективе машинный интеллект, например, может оставить миллионы людей без работы.

По поводу угрозы искусственного интеллекта уже высказались такие известные личности, как Элон Маск и Стивен Хокинг. Оба входят в организацию под названием «Институт будущего жизни» (Future of Life Institute), которая недавно выступила с открытым письмом с призывом оценить риски, связанные с разработкой искусственного интеллекта (ИИ).

Ранее в этом месяце глава электромобилестроительной компании Tesla Элон Маск заявил, что в ближайшие годы управляемые людьми автомобили могут оказаться вне закона. По его словам, роботы получат преимущество на дороге, а человек за рулем станет «слишком опасным» для участников движения.

Источник: http://randomstore.ru

Опубликовано в рубрике Новости Метки:

Оставить комментарий:

 

Для того чтобы оставлять комментарии, необходимо Зарегистрироваться