00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
Ежедневные новости
08:00
4 мин
Утро хорошего дня
Кыргызское кино: покоряя международные фестивали и сердца зрителей
08:05
46 мин
Жаңылыктар
Жаңылыктар. Чыгарылыш 09:00
09:00
4 мин
Ежедневные новости
12:01
4 мин
12:05
44 мин
Жаңылыктар
13:01
3 мин
Ежедневные новости
14:01
3 мин
Жаңылыктар
15:01
3 мин
Ежедневные новости
16:01
4 мин
Жаңылыктар
17:01
3 мин
Экономикалык панорама
17:04
40 мин
Ежедневные новости
18:01
4 мин
Жаңылыктар
19:01
4 мин
Ежедневные новости
20:00
5 мин
Утро хорошего дня
Кыргызское кино: покоряя международные фестивали и сердца зрителей
06:04
46 мин
Ежедневные новости
08:00
4 мин
Жаңылыктар
09:00
5 мин
Ежедневные новости
12:01
4 мин
Жаңылыктар
13:01
3 мин
Ежедневные новости
14:01
3 мин
Жаңылыктар
15:01
3 мин
15:58
1 мин
Ежедневные новости
16:01
4 мин
Жаңылыктар
17:01
3 мин
Жаңылыктар
19:01
4 мин
Ежедневные новости
20:00
5 мин
Ачык кеп
ЕАЭБдин макроэкономикалык көрсөткүчтөрү кандай? — кооперация жана технологиялык кызматташуу, санариптешүү артыкчылыктуу багыт
23:05
45 мин
On air
23:59
1 мин
ВчераСегодня
К эфиру
г. Бишкек89.3
г. Бишкек89.3
г. Каракол89.3
г. Талас101.1
г. Кызыл-Кия101.9
г. Нарын95.1
г. Чолпон-Ата105.0
г. Ош, Джалал-Абад107.1

Microsoft извиняется за брань своего бота-нациста в Twitter

© flickr.com / Robert ScobleОфис Microsoft в США. Архивное фото
Офис Microsoft в США. Архивное фото - Sputnik Кыргызстан
Подписаться
Экспериментального виртуального собеседника Microsoft научили нецензурной брани с нацистским уклоном пользователи Twitter, сообщили в компании Microsoft.

БИШКЕК, 26 мар — Sputnik. Компания Microsoft извинилась за сообщения, опубликованные чатботом под названием Tay, в которых содержатся нецензурная лексика и оскорбления, говорится в заявлении вице-президента Microsoft Research Питера Ли.

Экспериментальный виртуальный собеседник, разработанный Microsoft, обучается непосредственно во время диалога с пользователем и черпает свой словарный запас из реплик собеседника. Такой механизм самообучения привел к тому, что бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления.

"Мы глубоко сожалеем о непреднамеренных оскорблениях и обидных твитах от Tay. Они не дают представления о том, кто мы, каковы наши убеждения и как мы создавали Tay", — написал Ли в своем блоге на официальном сайте компании.

Microsoft намерена "извлечь урок" из полученного опыта и не оставит попыток усовершенствовать интернет-технологии, чтобы Всемирная сеть "представляла лучшее, а не худшее в человечестве", добавил Ли.

Лента новостей
0