Разбираем, как распознать правду в том, что говорит ИИ, на основе механизма работы @Mira_Network!



Современные ИИ, использующие модели LLM, часто говорят чепуху с серьезным видом, на самом деле они не могут быть надежными. Проблема не в технологии, а в том, что существуют ограничения на принципиальном уровне, которые не позволяют одновременно добиться точности и нейтральности.

Чем больше данных вы тренируете, тем больше можно уменьшить предвзятость, но есть риск начать сочинять истории. Чем чище очищены данные, тем больше они могут быть предвзяты к определенной позиции.

Основной механизм Mira - это проверка согласия. На самом деле это означает, что больше не нужно полагаться на ответ одной модели, а вместо этого несколько моделей участвуют в оценке. Только когда все говорят "да", этот ответ считается проверенным.

Весь процесс делится на три шага!

1⃣Бинаризация
Ответ AI не следует оценивать целиком, а следует разбивать на небольшие суждения по одному.
Например: Земля вращается вокруг Солнца, Луна вращается вокруг Земли.
Мира разобьет это предложение на:
Земля вращается вокруг Солнца
Луна вращается вокруг Земли

Каждое высказывание будет проверяться отдельно. Это избегает проблемы, когда в целом все звучит правильно, но на самом деле детали полностью неверны.

2⃣распределенная верификация
Эти выделенные предложения будут отправлены на разные узлы в сети Mira, каждый узел представляет собой модель или группу моделей, которые не будут видеть полный контекст и будут отвечать только за определение истинности или ложности своего предложения, что обеспечивает более нейтральную проверку.

3⃣Подтверждение механизма консенсуса
Работа Mira по «доказательству работы» — это истинное ИИ-вывод.

Каждая модель проверки должна ставить (заложить) токены, а после проверки необходимо предоставить результаты.
Если производительность будет плохой, то будет "slash", и токены, заложенные в стейкинге, будут сняты.

Модель "консенсусных вычислений" должна быть одобрена почти всеми моделями, чтобы считаться успешной. Этот механизм использует "мультиконсенсус" между моделями для приближения к самой сути фактов.

По сути, @Mira_Network добавляет уровень доверия к выводам AI, который достигается через консенсус, а не путем проверки на основе одной модели.
Посмотреть Оригинал
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить