00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
Ежедневные новости
08:00
4 мин
Жаңылыктар
09:00
2 мин
Ежедневные новости
12:01
4 мин
Жаңылыктар
13:01
3 мин
Ежедневные новости
14:01
4 мин
Жаңылыктар
15:01
3 мин
Ежедневные новости
16:01
3 мин
Жаңылыктар
17:01
3 мин
Ежедневные новости
18:01
5 мин
Жаңылыктар
19:01
4 мин
Ежедневные новости
20:00
3 мин
07:46
5 мин
Ежедневные новости
08:00
3 мин
Жаңылыктар
09:00
3 мин
Ежедневные новости
12:01
3 мин
Жаңылыктар
13:01
3 мин
Ежедневные новости
14:01
3 мин
Жаңылыктар
15:01
3 мин
Ежедневные новости
16:01
3 мин
Жаңылыктар
17:01
3 мин
Ежедневные новости
18:01
4 мин
Жаңылыктар
19:01
5 мин
Ежедневные новости
20:00
5 мин
ВчераСегодня
К эфиру
г. Бишкек89.3
г. Бишкек89.3
г. Каракол89.3
г. Талас101.1
г. Кызыл-Кия101.9
г. Нарын95.1
г. Чолпон-Ата105.0
г. Ош, Джалал-Абад107.1

Хокинг предсказал, что для супер-умного ИИ человек будет муравьем

© AFP / JUSTIN TALLISИзвестный астрофизик из Британии Стивен Хокинг. Архивное фото
Известный астрофизик из Британии Стивен Хокинг. Архивное фото - Sputnik Кыргызстан
Подписаться
Известный астрофизик из Британии Стивен Хокинг предсказал, чем опасны для человека сверхразумные машины. Он выступает против "гонки ИИ".

БИШКЕК, 13 окт — Sputnik. Известный британский космолог Стивен Хокинг объяснил свое неприятие технологий искусственного интеллекта (ИИ) — по его мнению, сверхразумные машины будут смотреть на людей, как на расходный материал или муравьев, мешающих решению поставленной перед ними задачи.

Общаясь с пользователями портала Reddit, Хокинг подчеркнул, что он не считает подобные машины "злыми" существами, желающими уничтожить человечество из-за интеллектуального превосходства. Скорее, они просто не будут замечать человечество.

"СМИ постоянно искажают мои слова. Главный риск развития ИИ заключается не в их злобе, а в компетенции. Сверхумный ИИ будет очень хорошо справляться с задачами, и если его и наши цели не будут совпадать, у нас возникнут огромные проблемы", — объясняет ученый.

В качестве примера Хокинг привел гипотетическую ситуацию, в которой мощный искусственный интеллект управляет работой или постройкой новой плотины ГЭС. Для такой машины в первую очередь будет важно то, как много энергии вырабатывает вверенная ей система, а судьбы людей не будут иметь для нее никакого значения.

"Среди нас мало таких, кто топчет муравейники и наступает на муравьев со злости, но представьте ситуацию — вы контролируете ГЭС, вырабатывающую электроэнергию. Если вам нужно поднять уровень воды и в результате этого один муравейник затопит, то проблемы утопающих насекомых вас вряд ли будут беспокоить. Давайте не ставить людей на место подобных муравьев", — продолжает космолог.

Женщину-робота берут на "работу" в токийское кафе
Другой потенциальной проблемой дальнейшего развития систем ИИ и роботехники может стать то, что Хокинг называет "тиранией хозяев машин", — стремительный рост разрыва в уровне доходов между богатыми людьми, монополизировавшими производство разумных машин, и остальными слоями населения Земли.

Хокинг предлагает решить эти ситуации двумя путями — замедлив разработку ИИ, переключившись на создание не "универсального", а узкоспециализированного искусственного разума, способного решать крайне ограниченный круг задач.

Лента новостей
0