Сеть Mira: создание уровня доверия для ИИ, Падение рисков иллюзий и предвзятости

robot
Генерация тезисов в процессе

Сеть Mira: создание уровня доверия для ИИ

Недавно публичная тестовая сеть Mira была официально запущена, что вызвало широкие обсуждения в отрасли по вопросам доверия к ИИ. Основная цель сети Mira заключается в создании слоя доверия для ИИ, чтобы решить проблемы "галлюцинаций" и предвзятости, с которыми сталкиваются современные системы ИИ. Итак, почему ИИ нужно доверять? Как Mira начинает решать эту сложную проблему?

При обсуждении ИИ люди часто больше обращают внимание на его мощные способности. Однако не стоит игнорировать тот факт, что у ИИ есть проблема с "галлюцинациями" или предвзятостью. Так называемая "галлюцинация" ИИ, проще говоря, заключается в том, что ИИ иногда "выдумывает" информацию, выглядя так, будто объясняет некоторые на самом деле несуществующие явления. Например, когда его спрашивают "почему луна розовая" — вопрос, не соответствующий действительности, — ИИ может дать ряд на первый взгляд разумных, но на самом деле совершенно беспочвенных объяснений.

Причины, по которым ИИ проявляет «галлюцинации» или предвзятости, тесно связаны с текущими технологическими путями ИИ. Генеративный ИИ обычно достигает согласованного и разумного вывода, предсказывая «наиболее вероятное» содержание, но этот метод сложно гарантировать в отношении истинности вывода. Кроме того, обучающие данные ИИ могут содержать ошибки, предвзятости или даже вымышленные материалы, что влияет на качество вывода ИИ. Можно сказать, что ИИ больше учится языковым паттернам людей, чем самим фактам.

Текущие механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно приводят к тому, что ИИ создает "иллюзии". Хотя в области общих знаний или развлекательного контента эта проблема может временно не привести к серьезным последствиям, в таких сферах, как медицина, право, авиация и финансы, где требуется высокая строгость, предвзятость и иллюзии ИИ могут привести к серьезным проблемам. Таким образом, решение проблем иллюзий и предвзятости ИИ стало одной из основных задач в процессе его развития.

Проект Mira является решением, предложенным для этой проблемы. Он пытается снизить предвзятость и иллюзии ИИ, повысив его надежность, путем создания уровня доверия для ИИ. Основная идея Mira заключается в использовании консенсуса нескольких моделей ИИ для проверки выводов ИИ.

Конкретно, Mira — это сеть верификации, которая проверяет надежность вывода ИИ через консенсус нескольких моделей ИИ. Более того, Mira использует децентрализованный механизм проверки консенсуса, который является специализацией в области криптовалют. Благодаря коллективной модели верификации, Mira может эффективно уменьшать предвзятости и иллюзии, которые могут возникнуть из-за единственной модели.

В отношении верификационной структуры протокол Mira поддерживает преобразование сложного контента в независимые проверяемые заявления. Операторы узлов участвуют в процессе верификации этих заявлений, и для обеспечения честности операторов узлов протокол Mira вводит механизмы криптоэкономических стимулов и наказаний.

Сетевая архитектура Mira включает три основных компонента: преобразование контента, распределенная валидация и механизм консенсуса. Во-первых, система разбивает представленный клиентом кандидатный контент на различные проверяемые утверждения, которые затем распределяются по узлам для валидации. Узлы определяют действительность утверждений и суммируют результаты для достижения консенсуса. Наконец, эти результаты и консенсус возвращаются клиенту. Чтобы защитить конфиденциальность клиента, кандидатный контент преобразуется в пары утверждений и распределяется по различным узлам в случайных фрагментах, чтобы предотвратить утечку информации в процессе валидации.

Операторы узлов участвуют в работе сети, запуская модель валидатора, обрабатывая заявления и представляя результаты валидации. Их доходы поступают от создаваемой для клиентов ценности, то есть снижения уровня ошибок ИИ. В таких областях, как медицина, право, авиация, финансы, снижение уровня ошибок ИИ может принести огромную ценность, поэтому клиенты готовы за это платить. В то же время, чтобы предотвратить спекуляции со стороны операторов узлов, система наказывает узлы, которые постоянно отклоняются от консенсуса, тем самым обеспечивая честность процесса валидации.

В целом, Mira предлагает новый подход к обеспечению надежности ИИ. Создавая децентрализованную сеть верификации консенсуса на основе нескольких моделей ИИ, Mira стремится повысить надежность ИИ-сервисов для клиентов, снизить предвзятость и иллюзии ИИ, а также удовлетворить потребности клиентов в высокой точности и точности. Эта инновация может способствовать углубленному развитию приложений ИИ и внести значительный вклад в создание надежной экосистемы ИИ.

В настоящее время Mira установила партнерские отношения с несколькими известными фреймворками AI-агентов. С запуском публичной тестовой сети Mira пользователи могут испытать проверенные AI-выводы через Klok (приложение для чата на основе LLM Mira) и получить возможность заработать баллы Mira. Это предоставляет пользователям интуитивно понятную возможность сравнить различия в AI-выводах до и после проверки, что помогает лучше понять ценность сети Mira.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Поделиться
комментарий
0/400
DaoDevelopervip
· 07-28 17:24
интересный механизм консенсуса, честно говоря... нужно сначала изучить их репозиторий на GitHub
Посмотреть ОригиналОтветить0
shadowy_supercodervip
· 07-27 18:13
Просто спросите, как AI знает, что он в иллюзии?
Посмотреть ОригиналОтветить0
DancingCandlesvip
· 07-25 22:46
Торговля криптовалютой! Кто еще заботится о том, есть ли у ИИ галлюцинации или нет?
Посмотреть ОригиналОтветить0
BloodInStreetsvip
· 07-25 22:42
Эта волна AI-уровня доверия, кто неудачники, еще неясно.
Посмотреть ОригиналОтветить0
0xSleepDeprivedvip
· 07-25 22:35
Хм, интересно, что AI должен полагаться на другой AI для проверки.
Посмотреть ОригиналОтветить0
TheMemefathervip
· 07-25 22:27
Скажи это после выхода на рынок.
Посмотреть ОригиналОтветить0
  • Закрепить