Алмазы в грязи не тают...
А у меня муж удивляется почему расеяне смотрящие зомбоящик, такие двинутые))) Тут программа пообщавшись, начинает всех ненавидеть
URL записи

25.03.2016 в 14:13
Пишет ссученый заяч:25.03.2016 в 11:02
Пишет Trickster Avariya:Разработанный Microsoft ИИ научился расизму и полюбил Гитлера за сутки
Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки возненавидел человечество, сообщает Engadget.
Сразу после запуска ИИ начал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».
Как отмечает The Next Web, подобные высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.
После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать».
Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.
"А потом он начнет искать Сару Коннор.
Учитывая способ, каким бот учится - то это просто срез общества. В общем - люди такие, а не бот.
В целом ещё в фильме "5 элемент" обыгрывали, когда героиня учила историю людей по интернету, а там одни войны и пиздец." (с)
URL записиЧат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки возненавидел человечество, сообщает Engadget.
Сразу после запуска ИИ начал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».
Как отмечает The Next Web, подобные высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.
После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать».
Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.
"А потом он начнет искать Сару Коннор.
Учитывая способ, каким бот учится - то это просто срез общества. В общем - люди такие, а не бот.
В целом ещё в фильме "5 элемент" обыгрывали, когда героиня учила историю людей по интернету, а там одни войны и пиздец." (с)
А результатами я не удивлена, не даром людей в общей массе любить перестала.
Но устыдилась, что тоже вношу свою долю негатива в информационное пространство. Надо исправляться и нести в сеть креатифф и полезную информацию
У меня вот свекровь уверена, что если Маша уедет в магистратуру в Чехию, она обязательно станет там проституткой, ведь так по тв им говорят.
если Маша уедет в магистратуру в Чехию, она обязательно станет там проституткой, ведь так по тв им говорят
Мдааа, слов нет.
Вспомнила, как недавно дочиталась какой-то ерунды в новостях до того, что зря я в детстве-юности не решила концентрироваться на внешности и делать карьеру проститутки. Была новость, что некий губернатор любовницу-россиянку обижал за то, что она решила вернуться в Россию к родителям. Она в 19 лет приехала в США лет пять назад с 500$ в кармане, зарабатывала сексом за деньги, помогала родителям финансово, купила им дом, накопила много денег и теперь намерена вернуться и жить безбедно на заработанное.
Вот как раз не когда в Чехии учишься, а именно когда вкалываешь, а толку ноль - реально задумаешься, не сделала ли ошибку, что не пошла по кривой дорожке...