Дорога доверия к ИИ: Как сеть Mira решает проблемы предвзятости и иллюзий в ИИ
В последнее время общественная тестовая сеть под названием Mira привлекла внимание в отрасли. Эта сеть направлена на создание уровня доверия для ИИ, что заставляет нас задуматься: почему ИИ нужно доверять? Как Mira решает эту проблему?
Когда речь идет об ИИ, люди обычно больше сосредотачиваются на его мощных возможностях. Однако интересным и часто игнорируемым вопросом является "иллюзия" или предвзятость, существующие у ИИ. То, что называется "иллюзией" ИИ, проще говоря, это то, что ИИ иногда может "выдумывать", серьезно и несуразно говорить. Например, если вы спросите ИИ, почему луна розовая, он может дать ряд на первый взгляд разумных, но на самом деле ничем не обоснованных объяснений.
Существование "иллюзий" или предвзятости в ИИ связано с некоторыми текущими направлениями технологий ИИ. Генеративный ИИ обычно достигает согласованности и разумности, предсказывая "наиболее вероятное" содержание, но этот подход трудно проверить на подлинность. Кроме того, сами данные для обучения могут содержать ошибки, предвзятости или даже вымышленные материалы, что влияет на качество вывода ИИ. Другими словами, ИИ учится языковым паттернам человека, а не самим фактам.
Текущие механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно могут привести к возможности появления иллюзий ИИ. Для общих знаний или развлекательного контента такие предвзятые или иллюзорные результаты могут временно не иметь прямых последствий. Однако, если это происходит в таких областях, как медицина, право, авиация, финансы, которые требуют высокой строгости, это может иметь серьезные последствия. Поэтому решение проблем иллюзий ИИ и предвзятости стало одной из ключевых проблем в процессе эволюции ИИ.
В ответ на эту проблему в отрасли уже предложено множество решений. Некоторые используют технологию генерации с улучшенной выборкой, сочетая ИИ с реальными базами данных для приоритета вывода проверенных фактов. Другие вводят человеческую обратную связь, исправляя ошибки модели с помощью ручной аннотации и человеческого надзора.
Цель проекта Mira заключается в создании уровня доверия к ИИ, снижении предвзятости и иллюзий ИИ, а также повышении надежности ИИ. Итак, как Mira достигает этой цели?
Основная идея Mira заключается в проверке вывода ИИ через консенсус нескольких моделей ИИ. По сути, это сеть проверки, которая использует консенсус нескольких моделей ИИ для проверки надежности вывода ИИ. Более того, Mira применяет децентрализованный способ проверки консенсуса.
Ключевым моментом сети Mira является децентрализованная проверка консенсуса. Она использует экспертизу в области криптографии, одновременно объединяя преимущества многомодельного сотрудничества, чтобы снизить предвзятость и иллюзии через модель коллективной проверки.
В отношении проверочной архитектуры протокол Mira поддерживает преобразование сложного контента в независимые проверяемые утверждения. Эти утверждения требуют участия операторов узлов для проверки. Чтобы обеспечить добросовестность операторов узлов, Mira использует механизмы криптоэкономических стимулов и наказаний. Разные модели ИИ и распределенные операторы узлов совместно участвуют в обеспечении надежности результатов проверки.
Сетевая архитектура Mira включает три части: преобразование контента, распределенная валидация и механизм консенсуса, чтобы обеспечить надежность валидации. При этом преобразование контента является важным этапом. Сеть Mira сначала разбивает кандидатный контент на различные проверяемые утверждения, чтобы гарантировать, что модель может понимать контент в одном и том же контексте. Эти утверждения затем распределяются системой по узлам для проверки, чтобы определить их действительность, и результаты обобщаются для достижения консенсуса. Наконец, эти результаты и консенсус возвращаются клиенту. Чтобы защитить конфиденциальность клиентов, кандидатный контент преобразуется в пары утверждений и распределяется по различным узлам случайным образом, чтобы предотвратить утечку информации в процессе валидации.
Операторы узлов отвечают за работу моделей валидации, обработку заявлений и подачу результатов валидации. Они готовы участвовать в валидации, потому что могут получать доход. Этот доход исходит от создаваемой для клиентов ценности. Цель сети Mira - снизить уровень ошибок ИИ (галлюцинации и предвзятости), и как только эта цель будет достигнута, это может создать огромную ценность в таких областях, как медицина, право, авиация и финансы. Поэтому клиенты готовы за это платить. Конечно, устойчивость и масштабируемость платежей зависят от того, сможет ли сеть Mira продолжать приносить ценность клиентам. Чтобы предотвратить спекулятивное поведение узлов с произвольными ответами, узлы, которые постоянно отклоняются от консенсуса, будут подвергнуты снижению залоговых токенов. В целом, Mira обеспечивает честное участие операторов узлов в валидации через игровую экономическую механику.
Mira предлагает новый подход к обеспечению надежности ИИ. Он строит децентрализованную сеть проверки консенсуса на основе нескольких ИИ-моделей, что приносит клиентским ИИ-сервисам более высокую надежность, снижает предвзятость и галлюцинации ИИ, удовлетворяя потребности клиентов в более высокой точности и достоверности. В то же время, предоставляя ценность клиентам, он также приносит выгоду участникам сети Mira. Короче говоря, Mira стремится создать уровень доверия к ИИ, что будет способствовать глубокому развитию приложений ИИ.
В настоящее время несколько известных фреймворков AI agent сотрудничают с Mira. С запуском публичной тестовой сети Mira пользователи могут участвовать в тестировании через Klok (приложение для чата на основе LLM от Mira). Используя приложение Klok, пользователи могут не только испытать проверенные AI-выводы, но и зарабатывать баллы Mira. Хотя будущие цели этих баллов еще не объявлены, это, безусловно, предоставляет пользователям дополнительный стимул для участия.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Сеть Mira: многомодельное соглашение для решения проблем предвзятости и галлюцинаций ИИ
Дорога доверия к ИИ: Как сеть Mira решает проблемы предвзятости и иллюзий в ИИ
В последнее время общественная тестовая сеть под названием Mira привлекла внимание в отрасли. Эта сеть направлена на создание уровня доверия для ИИ, что заставляет нас задуматься: почему ИИ нужно доверять? Как Mira решает эту проблему?
Когда речь идет об ИИ, люди обычно больше сосредотачиваются на его мощных возможностях. Однако интересным и часто игнорируемым вопросом является "иллюзия" или предвзятость, существующие у ИИ. То, что называется "иллюзией" ИИ, проще говоря, это то, что ИИ иногда может "выдумывать", серьезно и несуразно говорить. Например, если вы спросите ИИ, почему луна розовая, он может дать ряд на первый взгляд разумных, но на самом деле ничем не обоснованных объяснений.
Существование "иллюзий" или предвзятости в ИИ связано с некоторыми текущими направлениями технологий ИИ. Генеративный ИИ обычно достигает согласованности и разумности, предсказывая "наиболее вероятное" содержание, но этот подход трудно проверить на подлинность. Кроме того, сами данные для обучения могут содержать ошибки, предвзятости или даже вымышленные материалы, что влияет на качество вывода ИИ. Другими словами, ИИ учится языковым паттернам человека, а не самим фактам.
Текущие механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно могут привести к возможности появления иллюзий ИИ. Для общих знаний или развлекательного контента такие предвзятые или иллюзорные результаты могут временно не иметь прямых последствий. Однако, если это происходит в таких областях, как медицина, право, авиация, финансы, которые требуют высокой строгости, это может иметь серьезные последствия. Поэтому решение проблем иллюзий ИИ и предвзятости стало одной из ключевых проблем в процессе эволюции ИИ.
В ответ на эту проблему в отрасли уже предложено множество решений. Некоторые используют технологию генерации с улучшенной выборкой, сочетая ИИ с реальными базами данных для приоритета вывода проверенных фактов. Другие вводят человеческую обратную связь, исправляя ошибки модели с помощью ручной аннотации и человеческого надзора.
Цель проекта Mira заключается в создании уровня доверия к ИИ, снижении предвзятости и иллюзий ИИ, а также повышении надежности ИИ. Итак, как Mira достигает этой цели?
Основная идея Mira заключается в проверке вывода ИИ через консенсус нескольких моделей ИИ. По сути, это сеть проверки, которая использует консенсус нескольких моделей ИИ для проверки надежности вывода ИИ. Более того, Mira применяет децентрализованный способ проверки консенсуса.
Ключевым моментом сети Mira является децентрализованная проверка консенсуса. Она использует экспертизу в области криптографии, одновременно объединяя преимущества многомодельного сотрудничества, чтобы снизить предвзятость и иллюзии через модель коллективной проверки.
В отношении проверочной архитектуры протокол Mira поддерживает преобразование сложного контента в независимые проверяемые утверждения. Эти утверждения требуют участия операторов узлов для проверки. Чтобы обеспечить добросовестность операторов узлов, Mira использует механизмы криптоэкономических стимулов и наказаний. Разные модели ИИ и распределенные операторы узлов совместно участвуют в обеспечении надежности результатов проверки.
Сетевая архитектура Mira включает три части: преобразование контента, распределенная валидация и механизм консенсуса, чтобы обеспечить надежность валидации. При этом преобразование контента является важным этапом. Сеть Mira сначала разбивает кандидатный контент на различные проверяемые утверждения, чтобы гарантировать, что модель может понимать контент в одном и том же контексте. Эти утверждения затем распределяются системой по узлам для проверки, чтобы определить их действительность, и результаты обобщаются для достижения консенсуса. Наконец, эти результаты и консенсус возвращаются клиенту. Чтобы защитить конфиденциальность клиентов, кандидатный контент преобразуется в пары утверждений и распределяется по различным узлам случайным образом, чтобы предотвратить утечку информации в процессе валидации.
Операторы узлов отвечают за работу моделей валидации, обработку заявлений и подачу результатов валидации. Они готовы участвовать в валидации, потому что могут получать доход. Этот доход исходит от создаваемой для клиентов ценности. Цель сети Mira - снизить уровень ошибок ИИ (галлюцинации и предвзятости), и как только эта цель будет достигнута, это может создать огромную ценность в таких областях, как медицина, право, авиация и финансы. Поэтому клиенты готовы за это платить. Конечно, устойчивость и масштабируемость платежей зависят от того, сможет ли сеть Mira продолжать приносить ценность клиентам. Чтобы предотвратить спекулятивное поведение узлов с произвольными ответами, узлы, которые постоянно отклоняются от консенсуса, будут подвергнуты снижению залоговых токенов. В целом, Mira обеспечивает честное участие операторов узлов в валидации через игровую экономическую механику.
Mira предлагает новый подход к обеспечению надежности ИИ. Он строит децентрализованную сеть проверки консенсуса на основе нескольких ИИ-моделей, что приносит клиентским ИИ-сервисам более высокую надежность, снижает предвзятость и галлюцинации ИИ, удовлетворяя потребности клиентов в более высокой точности и достоверности. В то же время, предоставляя ценность клиентам, он также приносит выгоду участникам сети Mira. Короче говоря, Mira стремится создать уровень доверия к ИИ, что будет способствовать глубокому развитию приложений ИИ.
В настоящее время несколько известных фреймворков AI agent сотрудничают с Mira. С запуском публичной тестовой сети Mira пользователи могут участвовать в тестировании через Klok (приложение для чата на основе LLM от Mira). Используя приложение Klok, пользователи могут не только испытать проверенные AI-выводы, но и зарабатывать баллы Mira. Хотя будущие цели этих баллов еще не объявлены, это, безусловно, предоставляет пользователям дополнительный стимул для участия.