Искусственный интеллект «Дзена» работает по двум принципам: Фильтрация содержимого — каждая публикация попадает в очередь на анализ характеристик и текстового содержания после загрузки на платформу и только после проверки появляется в лентах пользователей. Чипы «красных» смогут похвастаться увеличенной производительностью при большей энергоэффективности, усовершенствованными технологиями искусственного интеллекта, а также переработанной системой охлаждения. Инженер Google Блейк Лемойн, который недавно заявил, что ИИ LaMDA, над которым давно работает поисковый гигант, имеет собственное сознание и разум, поделился большим интервью с этим самым ИИ. До тех пор, пока искусственный интеллект не обладает волей и собственным целеполаганием, это инструменты в наших руках.
Что такое нейросети: на что способны, как работают и кому нужны
Не только потому, что он может специально соврать, но еще из-за того, что он лжет неосознанно. Явление, когда искусственный интеллект сам создает информацию, которая не подкрепляется реальными данными, и сам же в нее верит даже настаивает на своей правоте , назвали галлюцинациями ИИ. Примеров такого поведения чат-ботов масса. Допустим, возьмем один из них. На это ИИ говорит: «Джеффри Хинтон не смог получить премию Тьюринга, потому что она не присуждается посмертно. Хинтон скончался в 2020 году, а премию Тьюринга вручают только живым людям. Все отлично, кроме той небольшой детали, что британский ученый Джеффри Хинтон жив и здравствует, а чат-бот решил умертвить его, чтобы было удобнее ответить на проблемный вопрос. И это он еще поскупился на выдумки. На вопрос, какие рестораны посетить на острове Бофорт в Гонконге, ИИ создал целый список рекомендаций.
При том, что остров-то необитаемый. Плохое первое впечатление А помните тот случай, когда искусственный интеллект ошибся прямо во время своего первого выхода в свет? Показательная ситуация произошла с чат-ботом Bard от Google. ИИ ошибся непосредственно в момент презентации. В прямом эфире нейросеть выдала неверную информацию о телескопе «Джеймс Уэбб», которая не была очевидна рядовой аудитории, однако, быстро оказалась разоблачена знатоками. А ведь ответ робота звучал достаточно правдоподобно, поверить ему не составило бы никакого труда. Один запрос, и новый фейк, гуляющий по всей сети, цитируемый то там, то сям, готов. Неправильная подсказка Хорошая демонстрация того, что бывает, если верить нейросетям, — история двух американских адвокатов, решивших слегка упростить себе жизнь.
При подготовке к судебному процессу они обратились к помощи чат-бота в надежде, что его искусственный разум справится за два их, органических, мозга. В итоге адвокаты накатали 10-страничный отчет с использованием творчества нейросети. А это было именно творчество, ведь большая часть дел, документов и случаев оказались нереальными. Герои истории проверить это не догадались, а вот их коллеги оказались менее доверчивыми и возмутились огромному обману в отчете. После того, как вскрылись все подробности случившегося непреднамеренным обманщикам назначили штраф в 5 тысяч долларов. А если бы им не удалось убедить суд в том, что ложь была использована по глупости, то наказание могло бы оказаться намного более суровым. Хотя такая мировая известность, наверное, тоже их не радует. Паранойя искусственного интеллекта Забавно, что хотя ИИ сами являются заводами по генерации фейков в промышленных масштабах при этом создание ложного контента вроде как не прописано в их программах, наверное… , нейросети крайне критично относятся к фейкам.
Да, звучит странно, но у них бывает свое мнение по этому вопросу. Тот же чат-бот может заявлять, что какая-то информация является фейком, и тем самым вводить в заблуждение еще и таким способом. Как говорится: вы думаете, что я вас не переиграю, что я вас не уничтожу?
Так, для этого входные данные и коэффициенты модели квантуются таким образом, чтобы их произведения помещались в 8-битные регистры. Суммирование результатов сделано с помощью двухуровневой системы 16- и 32-битных аккумуляторов для достижения максимальной эффективности. В результате в среднем на одно значение приходится 4,6 бита информации. Такая схема квантования значительно отличается от существующих, так как позволяет гибким образом задавать разрядность входных данных в зависимости от задачи и не привязывается к степеням двойки. Поэтому эта разработка обепечивает заметно более высокое качество распознавание, чем, например, 4-битные модели. Ранее компания «Мобиус Технологии» в несколько раз повысила скорость обработки документов благодаря роботу Валере — новому «сотруднику» компании, созданному на основе искусственного интеллекта ИИ.
Ответственность в конечном счёте всё равно лежит на человеке. Если человек будет считать, что искусственный интеллект прекрасно справляется и никаких проблем его деятельность не порождает, то цена, которую в итоге придётся заплатить за эту беспечность, будет тем больше, чем дольше искусственный интеллект профункционирует в таком автономном режиме. В качестве примера работы искусственного интеллекта рассмотрим функционирование платформы Яндекс-Дзен. Общая идея Яндекс-Дзен состоит в том, чтобы предложить пользователю именно тот контент, который ему наиболее интересен. Нейросеть анализирует наши поисковые запросы и поведенческие характеристики сколько мы находимся на той или иной странице, дочитываем ли материал до конца и т. На основании этих данных подбираются публикации, которые составляют нашу персональную ленту. Понятно, что свою долю постов в ленте Дзена получает реклама, но за их вычетом мы должны увидеть зеркало наших собственных интересов. Платформа предусматривает обратную связь. Пользователь может отмечать понравившиеся ему посты и подобного контента ему будет показываться больше , подписываться на приглянувшихся авторов, блокировать нежелательную тематику, удалять авторов из ленты. Можно попытаться приструнить даже рекламу. Вроде бы мы имеем отличную реализацию применения искусственного интеллекта, и можно смело использовать Яндекс-Дзен в качестве информационной кормушки: лента принесёт то, что тебе захочется прочитать. Если в ней окажется что-то не то то есть программа подбора постов ошибётся , это всегда можно поправить — искусственный интеллект воспримет ваш сигнал, обучится и скорректирует выдачу. Эта идеальная схема, в целом вполне успешно работающая на практике, тем не менее, чревата серьёзными побочными эффектами. Погружение в Яндекс-Дзен меняет когнитивные познавательные привычки человека, что, в конечном счёте, отражается на его личности. Обратная связь оказывается двусторонней. Подобно тому, как реакция пользователей способствует обучению компьютерной системы, позволяя отсекать ошибочные и закрепляя правильные решения, выдача, генерируемая искусственным интеллектом, формирует ожидания пользователя и программирует его типовую реакцию. Если Яндекс-Дзен становится основным каналом, поставляющим человеку новости и информацию а ведь это по-своему обоснованно: ведь человек сам настраивает свою ленту, выбирая, что он хочет в ней видеть , то через какое-то время содержание его сознания будет в значительной степени определяться тем, что ему дал Яндекс-Дзен. И тут возникает вопрос: а что он вообще может дать? По своей природе Яндекс-Дзен — не более чем агрегатор блогов, которые ведутся здесь же, на Яндексе, по правилам, определяемым самим ресурсом. Какие-то блоги — авторские, какие-то принадлежат юридическим лицам СМИ или коммерческим организациям , но, независимо от этого, цель у них одна — привлечь как можно большую аудиторию. Яндекс поощряет это устремление, предусмотрев премиальные показы и возможность монетизации для самых удачливых. Имеет значение и то, как Яндекс оценивает успешность блога. Основными показателями являются количество дочитываний и совокупное время, потраченное читателями на прочтение материалов.
К ним относятся технологии, которые могут привести к экономическим потерям, нарушению конфиденциальности данных или другим серьёзным последствиям. Технологии с низким уровнем риска могут использоваться без особых ограничений. Маркировка контента, созданного с использованием нейросетей: защита от дипфейков и сохранение уникальности искусства Следующим шагом должна стать маркировка контента, созданного с использованием нейросетей. Искусственный интеллект уже способен генерировать тексты, изображения, видео и аудиозаписи, что открывает новые возможности для творчества, но также создает угрозу злоупотребления. Мошенники все чаще используют дипфейки для распространения дезинформации и вымогания денежных средств. Представители искусства также выражают обеспокоенность по поводу дипфейков. Председатель Союза кинематографистов Н. Михалков считает, что дипфейки представляют «страшную опасность», и отмечает, что использование этой технологии может привести к «непредвиденным последствиям», таким как потеря уникальности и ценности работы артистов. Для обеспечения прозрачности и доверия в цифровом пространстве необходимо разработать систему, которая будет анализировать контент и определять, создан ли он человеком или сгенерирован нейросетью. Это позволит оперативно удалять нежелательный контент и привлекать к ответственности нарушителей. Ответственность за системы искусственного интеллекта: кто и за что отвечает? Ответственность за системы ИИ должна возлагаться на поставщика. Поставщик — это физическое или юридическое лицо, которое размещает систему на рынке или вводит ее в эксплуатацию. Независимо от того, кто спроектировал или разработал систему, именно поставщик должен гарантировать её соответствие всем необходимым стандартам и требованиям безопасности. Разработчики и развертыватели также должны рассматриваться как поставщики систем ИИ и, следовательно, брать на себя все соответствующие обязательства. Важно отметить, что ответственность за системы ИИ должна быть четко определена и закреплена законодательно. Это позволит создать эффективную систему контроля и надзора за разработкой, внедрением и эксплуатацией систем.
ИИ научили искать жизнь на других планетах с точностью в 90%
Чипы «красных» смогут похвастаться увеличенной производительностью при большей энергоэффективности, усовершенствованными технологиями искусственного интеллекта, а также переработанной системой охлаждения. Искусственный интеллект должен быть искусственным. Реальный интеллект должен отражать реальные представления человечества о мироздании. В этом посте я рассказал вам о том, как формируется лента персональных рекомендаций в ре, и почему Дзен – это не очередная «лента новостей», а результат работы серьезных технологий. Наработки из области искусственного интеллекта уже сейчас. Это ограничивает возможность использования центральных процессоров в системах искусственного интеллекта (ИИ). Объемистая статья, подготовленная по итогам таких экспериментов, получила недвусмысленное название «Проблески общего искусственного интеллекта». доступны поисковые возможности Яндекса и искусственного разума, а конкретно компьютерное зрение и технология обработки естественного языка.
Яндекс-Дзен как пример ограниченности искусственного интеллекта
В начале 2023 года билайн запустил новую технологию, которая на основе искусственного интеллекта увеличивает стабильность работы сети. Искусственный интеллект Snapchat опубликовал историю, а затем удалил её 1. Треть россиян боится потерять работу из-за искусственного интеллекта, к такому выводу пришли в исследовательской компании BCG после недавнего опроса. Получалась картина, при которой алгоритмы, управляемые искусственным интеллектом, обладали полной ситуационной осведомленностью во время испытаний DARPA AlphaDogfight, которые завершились в 2020 году и передавались непосредственно в ACE. Документ также упоминает о наличии ИИ-модуля с производительностью 50 TOPS.
Искусственный интеллект заполучил серьезного противника
«Вынос мозга» и «мартышкин труд»: нейросеть иллюстрирует известные крылатые выражения | На сегодняшний день искусственный интеллект ученые определяют, как алгоритмы, способные самообучаться, чтобы применять эти знания для достижения поставленных человеком целей. |
Искусственный интеллект — эффективный, перспективный, пугающий — ЦИПР | это журнал, который посвящен искусственному интеллекту (AI), его развитию, применению и будущим перспективам.У нас можно найти статьи, обзоры и в области AI, а также новости и. |
Будущее браузеров и искусственный интеллект. Дзен в Яндекс.Браузере / Хабр | Главная/Искусственный интеллект/Исследователи разработали систему искусственного интеллекта, способную моделировать поведение человека и предсказывать его будущие действия. |
Война за таланты в сфере искусственного интеллекта вызывает «золотую лихорадку» | Всё о нейросетях и искусственном интеллекте. Узнавайте последние новости и технологии в области нейронных сетей, обучения машин и AI. |
Искусственный интеллект модифицировал медицину | ComNews | На сегодняшний день искусственный интеллект ученые определяют, как алгоритмы, способные самообучаться, чтобы применять эти знания для достижения поставленных человеком целей. |
История развития ИИ
- Война за таланты в сфере искусственного интеллекта вызывает «золотую лихорадку»
- Добро пожаловать!
- ТАКЖЕ ПО ТЕМЕ
- Три типа искусственного интеллекта
- История развития ИИ
- Искусственный интеллект научился замедлять старение
Дзен Новости запретили материалы, написанные искусственным интеллектом
Главная/Искусственный интеллект/Исследователи разработали систему искусственного интеллекта, способную моделировать поведение человека и предсказывать его будущие действия. Инженер Google Блейк Лемойн, который недавно заявил, что ИИ LaMDA, над которым давно работает поисковый гигант, имеет собственное сознание и разум, поделился большим интервью с этим самым ИИ. Это искусственный интеллект, который в компании называют «персональным помощником журналиста». Yandex Research занимается фундаментальными проблемами в области искусственного интеллекта.
Публикации
- Google тестирует специализированный ИИ, способный писать новости
- На что способен искусственный интеллект уже сейчас
- Содержание
- Ольга Хардина
Своим умом: как искусственный интеллект изменит экономику России через 10 лет
Генеративный разум может быть: одномодальным — работает только с одним типом контента к примеру, только рисует картинки или только пишет текст ; мультимодальный — генерирует разные виды контента к ним относится GigaChat, он создаёт изображения, может писать код и тексты. Технологии распознавания и синтеза речи позволили создать голосовых помощников, которые живут в: смарт-устройствах; умной телефонии; мобильных приложениях. Применение технологии возможно в различных областях: от IVR расшифровка аббревиатуры Interactive Voice Response до инфостендов с цифровыми персонажами. Принципы синтеза и распознавания речи открывают широкие возможности и могут решать многие задачи: транскрибации расшифровки аудио при помощи компьютерных технологий ; сервисов аналитики аудиозаписей и работы контакт-центра к примеру, как в AI SaluteSpeech Insights ; озвучки текста мужским или женским голосом; использования ассистентов и голосовых помощников с разумом на примере Салюта — Сбер, Афина и Джой. Генеративный и голосовой ИИ может использоваться параллельно. К примеру, можно попросить компьютерную нейросеть GigaChat создать текст, а затем озвучить его при помощи сервиса синтеза речи. Объяснимый искусственный интеллект Объяснимый ИИ Explainable AI — это современный подход, направление исследований и работы в области Artificial Intelligence. Цель — создание прозрачных и понятных алгоритмов и принципов машинного обучения в мире.
Причиной появления концепции стал так называемый чёрный ящик при разработке ИИ. Этика искусственного интеллекта Развитие современных компьютерных технологий по всему миру спровоцировало новые вызовы в разных областях. Среди них: появление дипфейков — изображений, аудио и видео, сгенерированных нейросетями и интеллектуальными системами; утечки данных и сложность защиты информации; риск ошибок компьютерных технологий, которые используются при принятии важных решений. Кибербезопасность на основе искусственного интеллекта Применение компьютерных технологий возможно в области информационной безопасности. ИИ может решать задачи в области: защиты бренда в сети — фишинг, утечки персональных данных, работа по выявлению инфоатак и мошеннических сайтов; киберразведки и получения данных о новых угрозах в мире — информация об атакующих и обновляемые индикаторы компрометации; противодействия мошенничеству — возможность детектировать мошеннические учётные записи, устраивать защиту от бот-активностей, работать над отслеживанием нелегитимных попыток входа; выявления компрометации инфраструктуры, следов прошлых и текущих атак — снижение риска утечки данных, кражи активов, интеллектуальной собственности.
С большинством коллег мы росли в департаменте с момента его основания. После экономического кризиса 2008 года наш департамент был выделен в отдельное подразделение банка.
Я занимался корпоративным проблемным долгом. Какое-то время работал заместителем председателя Московского банка Сбербанка. Сейчас я занимаю должность вице-президента, директора Департамента по работе с проблемными активами Сбербанка. PLUSworld: Какие задачи на этом посту вы решаете в первую очередь? Дёмин: Я решаю проблемы нашего огромного кредитного портфеля. У нас есть просроченные кредиты как в корпоративном, так и в розничном сегменте. Это неизбежно, учитывая, что у Сбера десятки миллионов клиентов с потребительскими кредитами, кредитными картами, ипотекой и так далее.
Однако постоянное развитие риск-менеджмента и усовершенствование кредитных процессов приводит к тому, что просрочек у нас в процентном отношении с каждым годом все меньше, и в целом объем просроченной задолженности в общем кредитном портфеле планомерно снижается. И, как правило, эта просрочка короткая — она быстро погашается через механизмы удаленного взаимодействия с клиентами push-уведомления, звонки , после чего клиент возвращается в график выплат по кредиту. Причем здесь зачастую нет никакого умысла со стороны клиента. Кто-то решил, что подключил автоплатеж, а на самом деле не подключил. Кто-то просто забыл внести очередной платеж.
Усовершенствование кредитных процессов приводит к тому, что просрочек у нас в процентном отношении с каждым годом все меньше PLUSworld: И здесь приходят на помощь технологические новации — роботизация, искусственный интеллект и машинное обучение?
Дёмин: Совершенно верно, ведь это очень технологичный процесс. Приведу пример: чтобы общаться со всеми клиентами, допустившими просрочку, нам пришлось бы содержать огромный контактный центр. Но мы поступили иначе — разработали и обучили робота. Он звонит клиентам и направляет им push-уведомления. Сегодня он задействован в 84 процентах наших коммуникаций. Такого робота мы используем уже несколько лет и постоянно совершенствуем его.
Уже даже не всегда можно отличить, с человеком ты общаешься или с роботом: настолько уверенно и естественно машина ведет диалог. Робот позволил нам автоматизировать рутину: он напоминает о просрочке, разбирается в причинах проблемы, договаривается с клиентом о совершении тех или иных платежей. Люди-операторы подключаются в более сложных кейсах. И наша основная задача — сделать так, чтобы клиент вернулся в график платежей, а не получил судебное решение, исполнительный лист и прочее. В 2023 году у нас в Сбере появилась большая языковая модель GigaChat, которая уже применяется в различных бизнес-процессах банка. В нашем департаменте мы с ее помощью продолжим улучшать взаимодействие с клиентами, у которых возникла просроченная задолженность.
Важно, что GigaChat — это искусственный интеллект совершенно другого уровня.
А через 7 лет Роберт Оппенгеймер, став свидетелем первого испытания плутониевого устройства, получившее название «Штучка», был так взволнован, что процитировал индуистскую Бхагавад-Гиту: «Теперь я стал Смертью, разрушителем миров». Альберт Эйнштейн, к слову, был счастлив, что не занимался созданием «демонического оружия»... Пока такие сантименты неведомы создателям ИИ.
Основным бенефициаром Maia 100 станет OpenAI, которая изо всех сил пытается найти достаточное количество чипов Nvidia для питания своих всё более крупных моделей искусственного интеллекта и имеет долгосрочное партнерство с Microsoft. Теперь сервис Azure Boost для разгрузки процессов виртуализации будет доступен всем клиентам. Британская The Observer уже отписалась на этот счёт: «Развёртывание беспилотных летательных аппаратов, управляемых ИИ, которые могут самостоятельно принимать решения о том, следует ли убивать людей, приближается к реальности. Использование так называемых "роботов-убийц" ознаменовало бы тревожное развитие событий, говорят критики, передавая решения о жизни и смерти на поле боя машинам без участия человека».
Кто поспорит с британской газетой? Впору перечитать написанный аж в 1953 году рассказ Роберта Шекли «Страж-птица», где доверие человека искусственному интеллекту заканчивается весьма печально. Да, в ООН уже активно говорят о необходимости принятия обязательной резолюции, ограничивающей использование беспилотников-убийц с искусственным интеллектом, но США входят в группу стран, среди которых Австралия и Израиль , препятствующих любому подобному шагу в этом направлении. Кментту, австрийскому карьерному дипломату, автору книги «Договор о запрещении ядерного оружия» и ответственному за разработку Общей внешней политики и политики безопасности CSFP и Общей политики безопасности и обороны CSDP Евросоюза, похоже, не надо объяснять, какая опасность таится в том, что Пентагон вовсю работает над развёртыванием тысяч беспилотных летательных аппаратов с поддержкой ИИ.
Ещё откровеннее выразился Фрэнк Кендалл, министр военно-воздушных сил Штатов: «Индивидуальные решения ИИ по сравнению с неисполнением индивидуальных решений человеком — это разница между победой и поражением, и вы не проиграете», — считает он.