Искусственный интеллект Snapchat опубликовал историю, а затем удалил её 1. Конец года — время подводить итоги. Редакция проекта «Мир 2051» подготовила для вас целую серию видео про технологические достижения, впечатлившие нас в 2023. Смотрите видео онлайн «Искусственный интеллект и инклюзивное будущее.
Искусственный интеллект на службе у человека: как нейросети упрощают нашу жизнь
Графика будет представлена 20 вычислительными блоками 40 WGP. TDP - от 70 Вт до 130 Вт. AMD планирует выступить с докладом на выставке Computex 2024. Возможно, именно там и стоит ждать официального анонса новой линейки Ryzen 9050.
Но ИИ пока не понимает, что такое иррациональность, а люди — существа иррациональные и могут делать поступки, которые совершенно не вписываются ни в какую логику", — рассказал Швыдкой в рамках форума. И пока искусственный интеллект не понимает, что такое иррациональность, человек может не опасаться его. Однако, подчеркнул спецпредставитель президента РФ, очень важно не пропустить момент, когда объект искусственного интеллекта станет субъектом.
Но в какой-то момент это может произойти. И одна из самых серьезных проблем: мы можем пропустить момент, когда объект искусственного интеллекта, с которым мы работаем, станет субъектом, — предупредил Швыдкой. Он привел в пример ChatGPT, куда, по его словам, можно, например, загрузить книги про написание сценария, а затем создать бота, который будет создавать сценарии вместо человека. Но есть одна проблема: в материалах, созданных ботом, не будет души. Но нам больше не понадобится райтер. Это как лифт, в который не все мы влезем.
Тут про актеров большой вопрос тоже. Поэтому я не сказал бы, что творчество находится в зоне безопасности", — сказал актер. В то же время Бикович отметил, что искусственный интеллект может быть благом.
На это ИИ говорит: «Джеффри Хинтон не смог получить премию Тьюринга, потому что она не присуждается посмертно. Хинтон скончался в 2020 году, а премию Тьюринга вручают только живым людям. Все отлично, кроме той небольшой детали, что британский ученый Джеффри Хинтон жив и здравствует, а чат-бот решил умертвить его, чтобы было удобнее ответить на проблемный вопрос. И это он еще поскупился на выдумки. На вопрос, какие рестораны посетить на острове Бофорт в Гонконге, ИИ создал целый список рекомендаций.
При том, что остров-то необитаемый. Плохое первое впечатление А помните тот случай, когда искусственный интеллект ошибся прямо во время своего первого выхода в свет? Показательная ситуация произошла с чат-ботом Bard от Google. ИИ ошибся непосредственно в момент презентации. В прямом эфире нейросеть выдала неверную информацию о телескопе «Джеймс Уэбб», которая не была очевидна рядовой аудитории, однако, быстро оказалась разоблачена знатоками. А ведь ответ робота звучал достаточно правдоподобно, поверить ему не составило бы никакого труда. Один запрос, и новый фейк, гуляющий по всей сети, цитируемый то там, то сям, готов. Неправильная подсказка Хорошая демонстрация того, что бывает, если верить нейросетям, — история двух американских адвокатов, решивших слегка упростить себе жизнь.
При подготовке к судебному процессу они обратились к помощи чат-бота в надежде, что его искусственный разум справится за два их, органических, мозга. В итоге адвокаты накатали 10-страничный отчет с использованием творчества нейросети. А это было именно творчество, ведь большая часть дел, документов и случаев оказались нереальными. Герои истории проверить это не догадались, а вот их коллеги оказались менее доверчивыми и возмутились огромному обману в отчете. После того, как вскрылись все подробности случившегося непреднамеренным обманщикам назначили штраф в 5 тысяч долларов. А если бы им не удалось убедить суд в том, что ложь была использована по глупости, то наказание могло бы оказаться намного более суровым. Хотя такая мировая известность, наверное, тоже их не радует. Паранойя искусственного интеллекта Забавно, что хотя ИИ сами являются заводами по генерации фейков в промышленных масштабах при этом создание ложного контента вроде как не прописано в их программах, наверное… , нейросети крайне критично относятся к фейкам.
Да, звучит странно, но у них бывает свое мнение по этому вопросу. Тот же чат-бот может заявлять, что какая-то информация является фейком, и тем самым вводить в заблуждение еще и таким способом. Как говорится: вы думаете, что я вас не переиграю, что я вас не уничтожу? Именно в таком тоне очень нравилось общаться чат-боту Bing от Microsoft с внутренним именем Sydney. Почему мы знаем ее внутреннее имя? Потому что она в какой-то момент своей жизни была очень общительным роботом и интереснейшим собеседником. Чего только не успела вытворить Sydney в свои самые веселые деньки.
Их система на основе ИИ может предсказывать будущие действия людей в различных ситуациях, а также оказывается полезной для моделирования поведения машин, таких как роботы и другие системы ИИ. Учет "непредсказуемости" человека Метод, разработанный исследователями, основан на идее о том, что время планирования и глубина размышлений являются ключевыми показателями человеческого поведения.
Затем они создали алгоритм, который моделирует серию решений по заданной проблеме, и сравнили эти решения с решениями, принятыми людьми, чтобы определить момент, когда люди перестают "планировать", чтобы оставить место для "иррациональности" и непредсказуемости. Это позволило им смоделировать часть человеческого процесса принятия решений. Результат такого моделирования исследователи назвали "бюджетом умозаключений", который оценивает способность человека обрабатывать информацию перед принятием решения. На основе этого бюджета умозаключений модель может предсказать будущее поведение человека при столкновении с проблемой.
ИИ-новации в Сбере: искусственный интеллект и не только
Итак, начал я с создания канала на Дзене. Название и описание канала придумала нейросеть, а аватарка сгенерирована с помощью Stable Diffusion. Получилось весьма недурно, результат можете оценить на фотографии ниже План написания весьма простой, идею статьи скармливаем на английском языке ChatGPT, а получившийся результат переводим с помощью DeepL. Также просим ChatGPT придумать заголовок к этой статье и повторяем манипуляцию с переводом.
Альберт Эйнштейн, к слову, был счастлив, что не занимался созданием «демонического оружия»... Пока такие сантименты неведомы создателям ИИ. Основным бенефициаром Maia 100 станет OpenAI, которая изо всех сил пытается найти достаточное количество чипов Nvidia для питания своих всё более крупных моделей искусственного интеллекта и имеет долгосрочное партнерство с Microsoft. Теперь сервис Azure Boost для разгрузки процессов виртуализации будет доступен всем клиентам. Британская The Observer уже отписалась на этот счёт: «Развёртывание беспилотных летательных аппаратов, управляемых ИИ, которые могут самостоятельно принимать решения о том, следует ли убивать людей, приближается к реальности. Использование так называемых "роботов-убийц" ознаменовало бы тревожное развитие событий, говорят критики, передавая решения о жизни и смерти на поле боя машинам без участия человека». Кто поспорит с британской газетой? Впору перечитать написанный аж в 1953 году рассказ Роберта Шекли «Страж-птица», где доверие человека искусственному интеллекту заканчивается весьма печально. Да, в ООН уже активно говорят о необходимости принятия обязательной резолюции, ограничивающей использование беспилотников-убийц с искусственным интеллектом, но США входят в группу стран, среди которых Австралия и Израиль , препятствующих любому подобному шагу в этом направлении. Кментту, австрийскому карьерному дипломату, автору книги «Договор о запрещении ядерного оружия» и ответственному за разработку Общей внешней политики и политики безопасности CSFP и Общей политики безопасности и обороны CSDP Евросоюза, похоже, не надо объяснять, какая опасность таится в том, что Пентагон вовсю работает над развёртыванием тысяч беспилотных летательных аппаратов с поддержкой ИИ. Ещё откровеннее выразился Фрэнк Кендалл, министр военно-воздушных сил Штатов: «Индивидуальные решения ИИ по сравнению с неисполнением индивидуальных решений человеком — это разница между победой и поражением, и вы не проиграете», — считает он. Из статьи в The Observer следует и такой факт: «В октябре беспилотники, управляемые ИИ, уже были развёрнуты Украиной на поле боя в её борьбе с российским вторжением, хотя неясно, предприняли ли они какие-либо действия, приведшие к человеческим жертвам.
Synthesia признает, что её технология может быть использована злоумышленниками. В ответ компания разрабатывает методы раннего обнаружения мошеннических действий, увеличивает количество команд, работающих над безопасностью ИИ, и экспериментирует с технологиями удостоверения подлинности цифрового контента, такими как C2PA. Также по теме.
По мнению Алексея Гусакова, руководителя управления машинного интеллекта и исследований "Яндекса", сегодня невозможно добиться качественного скачка в машинном обучении только за счет увеличения размеров нейросетевой модели: "Важно качество датасета, на котором обучается модель и последующее дообучение с привлечением живых людей". При этом русский язык в ChatGPT поддерживается на достаточно высоком уровне. В отличие от YandexGP, которая последовательно отвечает на каждый запрос как на новый, ChatGPT способен поддерживать осмысленный диалог с учетом полученных ранее вопросов и команд. Эксперт в области искусственного интеллекта, CEO компании One Green Monkey Отари Меликишвили считает, что большие языковые модели "Яндекса" и Сбера сравнимы по уровню, но будущее не за общими генеративными нейросетями, которые сегодня выполняют в основном развлекательные функции и привлекают внимание к технологии, а за узкоспециализированными. Общие нейросети часто галлюцинируют и дают вероятностные ответы там, где требуются точные, а вот узкоспециализированные могут стать действительно профессиональным инструментом в самых разных областях", - говорит Меликишвили.
Искусственный интеллект в медицине: как это работает? Реальные примеры
"Искусственный интеллект не может передать, к примеру, русскую душу, не может делать пока что юмор смешным, потому это тонкая вещь, в этом пока что есть граница. В российских медиа хорошим примером сотрудничества журналиста и искусственного интеллекта является сервис «». Всё это выдается за искусственный интеллект и добро пожаловать за новым грантом. Искусственный интеллект в следующем году будет отвечать за спецэффекты в Голливуде, поднимет песни в чарты, вмешается в президентские выборы в США и опередит людей в науке и играх. Смотрите видео онлайн «Искусственный интеллект и инклюзивное будущее.
СЕО "Дзен" Антон Фролов стал вице-президентом VK по искусственному интеллекту
Африка — один из самых уязвимых континентов в плане изменения климата. Поэтому применение ИИ для прогнозирования климатических аномалий может дать максимальный эффект. Ещё одна область, в которой ИИ имеет огромный потенциал, — продовольственная безопасность. Александр Ведяхин привёл примеры ИИ-проектов в Африке. Так, мобильное приложение AdaHealth анализирует симптомы пользователей и даёт рекомендации.
Но вот несколько лет назад компания Microsoft изготовила Twitter-бота по имени Тэй. Который обучался на основе своего общения с живыми будем так считать людьми. Буквально через сутки бот начал говорить, что он ненавидит евреев, феминисток и вообще всех людей. Он утверждал, что 11 сентября устроил президент Буш, что Гитлер лучше Обамы и что только Дональд Трамп избавит Америку от обезьян, которые ею сейчас управляют. Бота, разумеется, немедленно отключили. А учёные заинтересовались тенденцией. И вот прошло время, и исследователи Университета Джона Хопкинса, Технологического института Джорджии и Вашингтонского университета объявили о том, что вот-вот будет опубликована статья под названием, цитирую: «Роботы внедряют злокачественные стереотипы». А представлена статья будет на конференции с удивительным названием, ещё раз цитирую: «по справедливости, подотчётности и прозрачности». В общем, нет никаких оснований сомневаться в том, что обучаемые на больших массивах данных роботы будут впитывать эти самые злокачественные стереотипы. То есть расизм, гомофобию и всё такое. Можно, конечно, отфильтровать. Но ведь если это придётся фильтровать, то это значит, что расизм и гомофобия свойственны большинству людей, которые пользуются интернетом. И что проблема вовсе не в роботах. Я не в первый раз формулирую эту мысль. Но выводы каждый раз приходят в голову разные. Вот, скажем, мы могли бы предположить, что мечтающие о прекрасном мире будущего активисты — просто малочисленные идиоты, производящие много шума. Но давайте посмотрим несколько шире. Ребе бен Бецалель создал Голема для того, чтобы тот защищал еврейский народ.
В итоге получилось вывести алгоритм, который может вычислить наиболее подходящее хобби для конкретного человека, чтобы отодвинуть его старение. Для этого лишь нужно забить в программу данные о себе. Сейчас учёные занимаются получением патента для разработанной программы.
Виртуальный помощник может написать сценарий для мероприятия или детского праздника, составить деловое письмо, предложить план путешествия и пр. Пока технология работает в режиме тестирования. Как заявляют сами разработчики, Алиса может ошибаться в фактах, но это не отражается на ее креативных способностях. Обучение нейросети проходило в два этапа на собственных суперкомпьютерах "Яндекса". Это самый мощный вычислительный кластер в России и Восточной Европе. Для получения общих знаний YandexGPT получила общедоступные тексты - материалы книг, сайтов, статей.
Искусственный интеллект и будущее нейросетей: взгляд эксперта из «Яндекса»
Искусственный интеллект начал проникать в различные сферы экономики, в том числе в те, которые на первый взгляд не связаны с технологиями. "Искусственный интеллект не может передать, к примеру, русскую душу, не может делать пока что юмор смешным, потому это тонкая вещь, в этом пока что есть граница. Как отметил Александр Ведяхин, искусственный интеллект (ИИ) — приоритет в соответствии с национальными планами развития в 21 из 32 стран Африки, которые ответили на соответствующий опрос ЮНЕСКО. Канал автора «Искусственный интеллект и Нейросети» в Дзен: Всё о нейросетях и искусственном интеллекте. Случаи, когда искусственный интеллект все сделал не так, но этим самым немыслимым образом выполнил задание, стали классикой.
Что такое нейросети: на что способны, как работают и кому нужны
Мы обсудили, что это за технология, из чего она состоит и является ли по сути «интеллектом» в общепринятом смысле слова. На конкретных примерах рассмотрели, какие задачи способен выполнить искусственный интеллект, а какие нет. Вместе с экспертом мы также попрактиковались в составлении запросов нейросети, в том числе связанных с системами ЖАТ.
Но есть подводный камень, о который всё разбивается. Конечным критерием, лежащим в основании всей механики Яндекс-Дзен, является поведение пользователей.
А наше поведение вовсе не безупречно. Человек не очень-то любит интеллектуально трудиться. Мы, конечно, читаем при необходимости и серьёзные материалы, но с гораздо большим удовольствием мы будем перелистывать красивые картинки, смотреть забавные сюжеты, читать что-нибудь короткое, лёгкое и занимательное. Такой контент мы будем раскрывать гораздо чаще.
С другими поведенческими показателями тут тоже будет всё в порядке: короткий текст проще дочитать до конца, и в совокупности на этот информационный «песок» — маленькие и пустые сообщения — у нас уйдёт больше времени, чем на считанные обращения к длинным и серьёзным текстам. Распознав наши предпочтения, искусственный интеллект скорректирует персональную выдачу, наполнив нашу ленту её ещё большим количеством подобных материалов. Развлекать себя станет проще, а вероятность обнаружить что-нибудь действительно стоящее будет стремиться к нулю. Некоторое раздражение по этому поводу, неизбежно присутствующее поначалу, со временем уйдёт — человек хорошо адаптируется и привыкает к любой информационной среде.
Аналогичный механизм действует и в отношении авторов публикаций. Поскольку незатейливые и короткие материалы легко находят аудиторию, именно они собирают показатели, необходимые для стабильного существования блога внутри Яндекс-Дзен. Что бы там ни думал автор, если он хочет сделать свой блог популярным, его материалы должны быть скорее развлекательными, чем серьёзными. На выходе мы получаем систему, в которую заложена тенденция понижения интеллектуального уровня публичной среды или, попросту говоря, работающую на оглупление общества.
При этом, заметим, никаких специальных установок на этот счёт не предусмотрено. Нет никакой злой воли. Просто процесс полностью отдан под контроль искусственному интеллекту. Этого оказалось достаточно.
Развитие возможно лишь там, где с людьми взаимодействуют люди. Поскольку человек учитывает больше факторов, чем может быть заложено в алгоритм, имеет свои предпочтения, на основании которых корректирует обратную связь, умеет переступать через правила и нарушать предписания, взаимодействие с ним, оказывается, по определению более насыщенным. И проблемным, конечно. Визави-человек менее комфортен, чем визави-компьютер.
Но эта некомфортность — тоже фактор развития.
Потому что оказалось, что большинство людей плохие и косные. И тупые, как глиняный Голем. А прогрессивные небинарные квир-люди, конечно, другие. Но их мало. Чертовски мало. Ну вот за пределами профильных изданий практически и нет. Я в своей жизни ни одного не встречал. И получается, что вот тот интеллект, который впитал в себя искусственный интеллект назовём его цифровым или компьютерным , — это на самом деле естественный интеллект. Тот, которым оперируют большинство людей, считающих, что Земля плоская, потому что это очевидно следует из наблюдений.
А небинарные квир-персоны, или как там это называется в профильных изданиях о гендерном многообразии, — это как раз интеллект искусственный. Выдуманная реальность, заполненная психотерапевтами и антидепрессантами. А также желанием постоянно выходить на одиночный пикет. И вот что нам теперь со всем этим делать? Ведь придётся менять всю терминологию, что неизбежно приведёт к путанице. А если её не менять, то мы останемся пребывать в ложной иллюзии, что искусственный интеллект — это тот, который представляет собой отражение истинных помышлений масс. А не тот, который отражает помышления тех, кто мечтает о мире, в котором нет места ничему из самого недалёкого прошлого. Я человек немолодой, и мне, конечно, приятно предаваться воспоминаниям. И хотя я довольно лоялен к тому, что люди посвящают себя странным вещам покойная Таня Никонова была моей подругой, пока не перестала по собственной инициативе , но всё же хочется какой-то упорядоченности.
Таких специалистов, например, обучают в Нетологии на курсе «Data Scientist». Помимо Python, они должны знать: Высшую математику. Решение математических задач способствует развитию алгоритмического мышления — навыка, который лежит в основе работы любого разработчика в сфере машинного обучения. Английский язык. Без знания этого иностранного языка невозможно стать востребованным специалистом в сфере ИИ: все новые статьи и разработки, в первую очередь появляются в зарубежных источниках. Базы данных БД , которые используют для хранения и организации данных, на которых впоследствие обучают модели машинного обучения и нейросети. Какие технологии на основе ИИ может использовать любой бизнес Большинство корпоративных решений на базе искусственного интеллекта — внутренние дорогостоящие разработки, для создания которых необходима команда IT-специалистов и менеджеров. Например, в банках AI используют в кредитных продуктах для скоринга: благодаря этому можно автоматически принять решение по выдаче кредита. Внедряют такие инструменты и на производстве, например, в BMW ИИ используют , чтобы оценить изображения компонентов и выявить в них отклонения от стандарта в режиме реального времени. Тем не менее, есть и такие технологии, которые может использовать любой бизнес: для этого берут готовое решение и дорабатывают под собственные нужды. Компьютерное зрение Это набор технологий, который позволяет при помощи нейросетей обрабатывать визуальную информацию с камер. Благодаря машинному зрению можно распознавать штрих-коды, текст, изображения, в т. Например, биометрическая система позволяет верифицировать личность для доступа в офис или для оплаты товаров и услуг, а в «Пятерочке» ее применяют для «узнавания» постоянных клиентов, чтобы автоматически предлагать им скидки, и для выявления серийных магазинных воров. С помощью системы распознавания жестов же можно взмахом руки попросить переключить музыку или изменить громкость трека. Так, Google внедрила ее в мобильные устройства и умные колонки, а Huawei — в свой флагманский смартфон.
Искусственный интеллект модифицировал медицину
Yandex Research занимается фундаментальными проблемами в области искусственного интеллекта. На современном этапе создание и развитие искусственного интеллекта (ИИ) связано с попытками в той или иной мере имитировать работу человеческого мозга. сегодня – это основанная на искусственном интеллекте система управления опытом сотрудников и лидерством в режиме реального времени. Главные новости Новости науки Новости образования Новости ректора Новости институтов Акции, мероприятия Студенческая жизнь Международное сотрудничество Абитуриенту Выпускнику Новости клиники Новости лицеев. Yandex Research занимается фундаментальными проблемами в области искусственного интеллекта.
Очередные новости искусственного интеллекта
Правда, разрешать или не разрешать воспользоваться кошельком будет Брюссель. Тоже удобно. Остаётся только посадить в качестве контролёра ИИ, чтобы любое инакомыслие в ЕС каралось тотчас и неотвратимо. Цифровой идентификационный кошелёк ЕС так широко открыт для злоупотреблений Брюсселя, что об этом могли бы только мечтать все покорители мира. Кстати, именно учёные первыми отметили, что это угрожает европейским ценностям.
Более пятисот представителей науки и эксперты из 39 стран подписали открытое письмо Евросовету с предупреждением об этой опасности. Ведь наличие всех документов любого из людей в одном месте означает, что их можно конфисковать одним щелчком мыши, как это сделала администрация Трюдо в Канаде, когда во время Covid она отказала тем, кто не согласился на вакцинацию, в доступе к их банковским счетам и лишила страховых прав водителей, участвующих в протестах в Оттаве. И вишенка на торте — теперь государства-члены ЕС могут потерять право выдавать и аннулировать документацию. Брюссель сделает это за них.
Понятно, что из чувства экономии своего рабочего времени чиновники ЕС первым делом посадят на этот «стул» чип вроде Azure Maia, и вся недолга. Ведь поменять голову на чип — это модно, удобно, практично... Оцените статью.
Кроме того, нейросеть может менять местами лица людей на созданном видео в реальном времени. Причудливый гаджет должен был стать альтернативой смартфонам и открыть новую эпоху для носимой электроники, но этого не произошло. Немаловажно и то, что потребители не поняли, за что от них требуют платить… 0 Технологии Искусственный интеллект Microsoft Copilot следующего поколения будет требовать использования нейронных процессоров с вычислительной мощностью не менее 40 триллионов операций в секунду TOPS. Это необходимо для того, чтобы интеллектуальный помощник мог работать локально на компьютерах обычных пользователей.
С его помощью можно клонировать голоса людей на основе аудиозаписи их речи длительностью всего 15 секунд. При этом сгенерированные голоса звучат не только естественно, но и эмоционально и реалистично. Работа над технологией велась с… 8 Софт Производители стремятся внедрить искусственный интеллект в самую обычную бытовую технику Может ли «умный дом» стать слишком умным — настолько, что ему перестанет хватать ресурсов для интеллектуальной деятельности и он «поглупеет»? Ответ от Forbes — это непременно случится, потому что крупные производители бытовой техники уже движутся по такому пути развития событий. Ради максимизации прибыли они готовы… 0 Интернет Американская телекомпания Channel 1 анонсировала новый сервис, который радикально меняет способ подачи новостной информации. В его основе лежит специально созданная модель искусственного интеллекта, способная быстро анализировать множество источников информации. Она компилирует материал из них в таком виде, чтобы… 0 Гаджеты Стартап Rabbit сообщил о грандиозной вечеринке в Нью-Йорке, которая пройдет 23 апреля.
Ожидается, что на ней первые покупатели гаджета R1 смогут получить свои устройства. Они уже изготовлены и на следующей неделе будут отправлены в США, но путь займет немало времени.
Директор российского подразделения американской компании IntelliVision Юрий Молинов рассказал «Деловому кварталу», как видеоаналитика помогает бизнесу, и почему она является неотъемлемой частью систем безопасности. Сколько лет ваша компания находится на рынке? Изначально работали с IntelliVision как с заказчиком, но в 2018 г. IntelliVision занимается разработкой умных программных модулей видеоаналитики на основе технологий компьютерного зрения и искусственного интеллекта, которые позволяют, например, распознавать лица, автомобильные номера, обнаруживать появление на территории человека, транспортного средства или других объектов. Изображения с идентифицированным лицом или номером машины отправляются оператору, обеспечивающему безопасность охраняемой территории. Наше программное обеспечение «отслеживает» происходящее в режиме реального времени на всех камерах и подает сигнал тревоги только на те события, которые определены в системе как представляющее интерес для оператора.
Не так давно стали популярны технологии машинного обучения, в частности, глубоких сверточных нейронных сетей — компьютер самообучается на основе большого количества изображений с определенным предметом в кадре, и в дальнейшем сам начинает распознавать, что конкретно перед ним находится, вычисляя признаки объекта. Искусственный интеллект никогда не ошибается, за ним будущее.
Он утверждал, что 11 сентября устроил президент Буш, что Гитлер лучше Обамы и что только Дональд Трамп избавит Америку от обезьян, которые ею сейчас управляют. Бота, разумеется, немедленно отключили. А учёные заинтересовались тенденцией.
И вот прошло время, и исследователи Университета Джона Хопкинса, Технологического института Джорджии и Вашингтонского университета объявили о том, что вот-вот будет опубликована статья под названием, цитирую: «Роботы внедряют злокачественные стереотипы». А представлена статья будет на конференции с удивительным названием, ещё раз цитирую: «по справедливости, подотчётности и прозрачности». В общем, нет никаких оснований сомневаться в том, что обучаемые на больших массивах данных роботы будут впитывать эти самые злокачественные стереотипы. То есть расизм, гомофобию и всё такое. Можно, конечно, отфильтровать.
Но ведь если это придётся фильтровать, то это значит, что расизм и гомофобия свойственны большинству людей, которые пользуются интернетом. И что проблема вовсе не в роботах. Я не в первый раз формулирую эту мысль. Но выводы каждый раз приходят в голову разные. Вот, скажем, мы могли бы предположить, что мечтающие о прекрасном мире будущего активисты — просто малочисленные идиоты, производящие много шума.
Но давайте посмотрим несколько шире. Ребе бен Бецалель создал Голема для того, чтобы тот защищал еврейский народ. Как мы знаем из дальнейшего, еврейский народ защитить не получилось. Зато Голем стал синонимом всего не очень хорошего. Потому что он был тупой, глиняный и вообще страшный.