00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
Ежедневные новости
08:00
4 мин
Жаңылыктар
09:00
2 мин
Ежедневные новости
12:01
4 мин
Жаңылыктар
13:01
3 мин
Ежедневные новости
14:01
4 мин
Жаңылыктар
15:01
3 мин
Ежедневные новости
16:01
3 мин
Жаңылыктар
17:01
3 мин
Ежедневные новости
18:01
5 мин
Жаңылыктар
19:01
4 мин
Ежедневные новости
20:00
3 мин
07:46
5 мин
Ежедневные новости
08:00
3 мин
Жаңылыктар
09:00
3 мин
Ежедневные новости
12:01
3 мин
Жаңылыктар
13:01
3 мин
Ежедневные новости
14:01
3 мин
Жаңылыктар
15:01
3 мин
Ежедневные новости
16:01
3 мин
Жаңылыктар
17:01
3 мин
Ежедневные новости
18:01
4 мин
Жаңылыктар
19:01
5 мин
Ежедневные новости
20:00
5 мин
ВчераСегодня
К эфиру
г. Бишкек89.3
г. Бишкек89.3
г. Каракол89.3
г. Талас101.1
г. Кызыл-Кия101.9
г. Нарын95.1
г. Чолпон-Ата105.0
г. Ош, Джалал-Абад107.1

Эксперт: ООН нужно немедленно запретить боевых роботов

© Sputnik / Владимир Астапкович / Перейти в фотобанкВыставка "Бал Роботов"
Выставка Бал Роботов - Sputnik Кыргызстан
Подписаться
Если не введут запрет, начнется гонка вооружений. Ее конечной точкой станет то самое мрачное будущее, которое предсказывают нам фантастические фильмы, такие как "Терминатор", считает эксперт.

БИШКЕК, 17 дек — Sputnik. Эксперт по искусственному интеллекту Тоби Уолш считает, что ООН следует как можно скорее ввести запрет на боевых роботов. Если этого не сделать, то развернется гонка вооружений, роботы-убийцы попадут в руки террористов и начнут войну против людей, пишет Sputnik Узбекистан со ссылкой на издание IEEE Spectrum.

Хокинг предсказал, что для супер-умного ИИ человек будет муравьем - Sputnik Кыргызстан
Стивен Хокинг рассказал, как и почему вымрет человечество
Роботы-убийцы входят в повестку дня совещания Организации Объединенных Наций на этой неделе. ООН следует немедленно запретить использование такого вида летального оружия, считает Тоби Уолш.

После трех лет неофициальных дискуссий в рамках конференции по разоружению страны — участницы ООН примут решение, стоит ли начать официальное обсуждение запрета на летальное автономное оружие.

В июле прошлого года тысячи исследователей и экспертов в области робототехники и искусственного интеллекта (ИИ) выступили с открытым письмом, призывая к запрету такого оружия. Одним из организаторов этого письма стал Тоби Уолш, который уже третий раз выступает на заседании ООН с аналогичным призывом.

Он считает, что если не введут запрет, то начнется гонка вооружений.

"И конечной ее точкой будет то самое мрачное будущее, которое предсказывают нам фантастические фильмы, такие как "Терминатор". Но еще до того момента, как этот сценарий осуществится, оружие попадет в руки террористов и они используют его против мирных людей. Это не будет война роботов с роботами — это будет война роботов против людей", — отметил эксперт.

На этой неделе международная организация IEEE (Институт инженеров электротехники и электроники) объявила об инициативе создать этические стандарты для разработчиков автономных систем. Согласно отчету, опубликованному IEEE, автономное оружие дестабилизирует систему международной безопасности, может привести к непреднамеренной военной эскалации и даже войне. А потому необходимо установить контроль над таким оружием.

Робот HRP-4C - Sputnik Кыргызстан
Первый всемирный саммит роботов пройдет в 2020 году в Японии
Многие поддерживают запрет летального автономного оружия. Уже девять членов конгресса США высказались в пользу этой инициативы. Есть и те, кто считает, что лучший способ остановить восстание машин — вовремя нажать "большую красную кнопку", над созданием которой работают, к примеру, в Google.

А вот Джинни Рометти, гендиректор IBM, полагает, что человечеству можно не опасаться восстания машин. Дело в том, что под термином "искусственный интеллект" мы сейчас понимаем не совсем то, что есть на самом деле. Это не интеллект как таковой, а когнитивные системы, которые не являются ни автономными, ни разумными. И они никак не смогут восстать.

Лента новостей
0