16+
Суббота, 20 апреля 2024
  • BRENT $ 87.39 / ₽ 8166
  • RTS1173.68
22 марта 2024, 14:05 Технологии

Искусственный интеллект научился различать правду и ложь

Лента новостей

Ученые создали новые параметры обучения для ИИ-моделей, которые позволяют делать прогнозы и учитывать экономические стимулы в поведении человека. Зная, какую выгоду ищет конкретный клиент, можно предсказать обстоятельства, при которых он будет говорить неправду

Фото: Сергей Елизарьев/фотобанк «Лори»

Обновлено в 15:45

Искусственный интеллект научился распознавать правду и ложь. Это свойство могут использовать в деятельности банков и страховых компаний. Такое исследование американских ученых опубликовано в журнале Journal of Business & Economic Statistics.

По мнению специалистов, связанные с финансами компании часто использует различные автоматизированные программы. С их помощью они определяют, какие условия ипотечного кредита выбрать для клиента или какую стоимость страховки назначить. Однако люди, получающие услуги, могут лгать ради денежной выгоды. Новые параметры для ИИ-моделей позволят эту ложь выявить.

Такие решения уже давно применяются, а это просто следующий уровень, считает гендиректор компании Promobot Максим Чугунов:

Максим Чугунов гендиректор компании Promobot «В финансовой сфере, в банковской сфере, в микрокредитовании использование различных систем аналитики, скоринговых систем применяется уже давным-давно, даже, наверное, не первые десять лет используют те или иные автоматизированные средства, как раз направленные на некую классификацию потенциального клиента по уровню платежеспособности и так далее, на некий уровень доверия. У нас в Сбербанке каждое решение о выдаче кредита проходит через часть ИИ с определенными выводами, которые уже сейчас работают, то есть это не будущее, это настоящее. Есть такая штука, как теория игр, и если есть понятная мотивация каждого игрока, там достаточно хорошо на математическом уровне раскладывают возможное поведение и наиболее оптимальную стратегию. Соответственно, если ее отзеркалить и решать некую обратную задачу, предполагая, что потенциальный заемщик исходит из мотива какой-то наживы или чего-то еще, именно подлога и обмана, то можно на уровне ИИ с достаточно высокой долей вероятности просчитывать возможные варианты поведения и сличать текущие анкеты, текущие данные, текущее поведение и с определенной высокой долей вероятности делать выводы. Применять эту систему как аналог или альтернативу детектору лжи, на мой взгляд, нельзя. Но применять ее как инструмент для формирования решения о выдаче кредита, благонадежности заемщика в финансовой сфере можно».

Система для определения лжи может работать в разных местах, но ее возможности ограничены. Сейчас как раз разработан большой блок-антифрод, то есть борьба с попыткой обмануть систему. Рассказывает гендиректор компании Dbrain Алексей Хахунов:

Алексей Хахунов гендиректор компании Dbrain «Простой пример: есть системы, которые используют данные, как вы печатаете, с какой скоростью, как водите мышкой и подобное. Современные банки умеют по тому, как вы это делаете, понимать с большой вероятностью, это делаете вы или какой-то другой человек. Антифрод-система работает точно так же, она знает, что является некой нормой, то есть как обычно конкретный тип пользователя должен себя вести. Она не может предсказать, что вы должны были сделать в той или иной ситуации, но считает, что, скорее всего, вы здесь соврали, то есть там могут быть просто абсолютно разные признаки того, почему люди врут. Например, то, что вы подаетесь на кредит очень поздней ночью, может стать для системы фактором. Естественно, никакие программисты не закладывали в нее вот такие правила, что если человек ночью отправляет документы, то он точно врет, нет, просто в результате анализа большого количества данных она может понять, что люди старше 50 лет должны действовать по-другому, а здесь он действует почему-то так. И вот, используя такие ее возможности, хорошо предсказывать поведение. Видя отклонения от этого предсказания, она понимает, что является правдой, а что — нет. Но, на самом деле, она может совершать ошибки. Если сравнивать с детектором лжи, то это абсолютно разные системы, потому что идея детектора лжи в том, что это универсальный подход выявления лжи, а эта система абсолютно не универсальна. Если вы захотите понять, обманывает вас муж или жена, кто угодно еще, вы не сможете никогда такую систему применить».

Несмотря на то что в тестах искусственный интеллект действительно смог выявить ложь среди участников исследования, отмечается, что он может пропустить так называемую маленькую ложь, когда человек утаивает или приукрашивает какую-либо информацию.

В будущем специалисты организации займутся улучшением способа обучения ИИ.

Рекомендуем:

Фотоистории

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию