Разбираем, как распознать правду в том, что говорит ИИ, на основе механизма работы @Mira_Network!
Современные ИИ, использующие модели LLM, часто говорят чепуху с серьезным видом, на самом деле они не могут быть надежными. Проблема не в технологии, а в том, что существуют ограничения на принципиальном уровне, которые не позволяют одновременно добиться точности и нейтральности.
Чем больше данных вы тренируете, тем больше можно уменьшить предвзятость, но есть риск начать сочинять истории. Чем чище очищены данные, тем больше они могут быть предвзяты к определенной позиции.
Основной механизм Mira - это проверка согласия. На самом деле это означает, что больше не нужно полагаться на ответ одной модели, а вместо этого несколько моделей участвуют в оценке. Только когда все говорят "да", этот ответ считается проверенным.
Весь процесс делится на три шага!
1⃣Бинаризация Ответ AI не следует оценивать целиком, а следует разбивать на небольшие суждения по одному. Например: Земля вращается вокруг Солнца, Луна вращается вокруг Земли. Мира разобьет это предложение на: Земля вращается вокруг Солнца Луна вращается вокруг Земли
Каждое высказывание будет проверяться отдельно. Это избегает проблемы, когда в целом все звучит правильно, но на самом деле детали полностью неверны.
2⃣распределенная верификация Эти выделенные предложения будут отправлены на разные узлы в сети Mira, каждый узел представляет собой модель или группу моделей, которые не будут видеть полный контекст и будут отвечать только за определение истинности или ложности своего предложения, что обеспечивает более нейтральную проверку.
3⃣Подтверждение механизма консенсуса Работа Mira по «доказательству работы» — это истинное ИИ-вывод.
Каждая модель проверки должна ставить (заложить) токены, а после проверки необходимо предоставить результаты. Если производительность будет плохой, то будет "slash", и токены, заложенные в стейкинге, будут сняты.
Модель "консенсусных вычислений" должна быть одобрена почти всеми моделями, чтобы считаться успешной. Этот механизм использует "мультиконсенсус" между моделями для приближения к самой сути фактов.
По сути, @Mira_Network добавляет уровень доверия к выводам AI, который достигается через консенсус, а не путем проверки на основе одной модели.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Разбираем, как распознать правду в том, что говорит ИИ, на основе механизма работы @Mira_Network!
Современные ИИ, использующие модели LLM, часто говорят чепуху с серьезным видом, на самом деле они не могут быть надежными. Проблема не в технологии, а в том, что существуют ограничения на принципиальном уровне, которые не позволяют одновременно добиться точности и нейтральности.
Чем больше данных вы тренируете, тем больше можно уменьшить предвзятость, но есть риск начать сочинять истории. Чем чище очищены данные, тем больше они могут быть предвзяты к определенной позиции.
Основной механизм Mira - это проверка согласия. На самом деле это означает, что больше не нужно полагаться на ответ одной модели, а вместо этого несколько моделей участвуют в оценке. Только когда все говорят "да", этот ответ считается проверенным.
Весь процесс делится на три шага!
1⃣Бинаризация
Ответ AI не следует оценивать целиком, а следует разбивать на небольшие суждения по одному.
Например: Земля вращается вокруг Солнца, Луна вращается вокруг Земли.
Мира разобьет это предложение на:
Земля вращается вокруг Солнца
Луна вращается вокруг Земли
Каждое высказывание будет проверяться отдельно. Это избегает проблемы, когда в целом все звучит правильно, но на самом деле детали полностью неверны.
2⃣распределенная верификация
Эти выделенные предложения будут отправлены на разные узлы в сети Mira, каждый узел представляет собой модель или группу моделей, которые не будут видеть полный контекст и будут отвечать только за определение истинности или ложности своего предложения, что обеспечивает более нейтральную проверку.
3⃣Подтверждение механизма консенсуса
Работа Mira по «доказательству работы» — это истинное ИИ-вывод.
Каждая модель проверки должна ставить (заложить) токены, а после проверки необходимо предоставить результаты.
Если производительность будет плохой, то будет "slash", и токены, заложенные в стейкинге, будут сняты.
Модель "консенсусных вычислений" должна быть одобрена почти всеми моделями, чтобы считаться успешной. Этот механизм использует "мультиконсенсус" между моделями для приближения к самой сути фактов.
По сути, @Mira_Network добавляет уровень доверия к выводам AI, который достигается через консенсус, а не путем проверки на основе одной модели.