👽 Soft3: consensus computing architecture for web3 and cyber
Обеспечит доминирование на Луне тот, кто первым развернет там интернет на блокчейне, — Дима Стародубцев
Эта декада — начало смены парадигмы вычислений в принципе, и консенсусных вычислений — как острия индустрии. Экосистемы Cosmos и cyber — будут в авангарде революции. Потенциал параллельных вычислений, доступных в консенсусе, — необъятен, — Валера Литвин
Дима Стародубцев: Мы поняли, что за четыре года существования Cyber Academy мы так ни разу и не рассказали про наш проект. А он уже на той стадии развития, когда мы готовы поделиться этой cutting edge-историей на стыке блокчейна и ИИ. А также рассказать о том, как мы видим индустрию, какие есть преимущества/недостатки и как мы хотим продвинуть всю сферу Web3 дальше.
Немного бэкгрунда о soft2: история началась в 2017 году со статьи Андрея Карпатого Software 2.0 https://www.oreilly.com/radar/the-road-to-software-2-0/ — в статье он объясняет смену парадигмы в софтверном инжиниринге и переход ручного управления путей программирования к вероятностному программированию при помощи нейронных сетей. Эта статья заложила мощный кирпич наравне с IPFS и консенсус-компьютингом. Мне она попалась в 2018 году и показала много сходств с тем, что мы делаем. Мы тогда уже идентифицировали наш проект, как что-то на стыке блокчейн-технологий и машинного обучения. Программистов soft2 можно поделить на два класса: первый класс занимается архитектурой нейронки (их мало, потому что это сложно) и второй класс — массовка, которая занимается лейблингом данных (подготовкой данных к кластеризации нейросетью).
В чем особенности soft2?
Есть ряд преимуществ soft2 перед soft1.
- В soft1 есть недостаток, связанный с такими параметрами, как постоянная времени выполнения и постоянная использования памяти. В традиционном софте возникает halting problem и она варьируется, в зависимости от программы.
- В soft2 есть некий размер модели, который определяет время исполнения. За счет этого требования к памяти фиксированные.
- Soft1 строится на компьютерных архитектурах, в которых очень большое количество инструкций, высокий уровень сложности. Soft2 сводит все к нескольким операциям над матрицами.
- Хардвер для soft2 может быть проще, чем для традиционных архитектур.
- Еще одно свойство систем — гибкость. В soft2 можно поднять количество ресурсов, увеличив точность
- Soft2 не заменяет soft1. У soft1 детерминированный аутпут: как написан код, так система и посчитает. В soft2 требует меньше кода, но больше данных.
В чем проблемы soft2?
- Проблема с adversarial examples. Об этой проблеме писали разработчики Google Brain, признавшись, что не знают, как решить ее.
- Результаты выполнения программ могут падать интуитивно.
- Есть проблемы с дистрибьюцией бинарников и самих данных моделей.
- Данные очень разнородны.
- Вычисления не верифицированы — невозможно определить как был посчитан результат, как прошли вычисления.
- Проблема национализации больших моделей для машинного обучения (foundation models for ML). Обучение этих моделей не коллаборативное и сводится к тому, что определенная группа людей выстраивает архитектуру нейронной сети.
- Soft2 — вeктор для general intelligence, а не для супер-интеллекта.
В чем идея soft3?
Soft3 можно назвать нативным Soft2 для Web3. Он превосходит по определенным свойствам концепт, предложенный Andrej Karpathy. Наше преимущество в модели, которая хранится не на сервере, а прямо в блокчейне. Мы научились разделять данные и хранить их в IPFS. Научились делать вычисления доказуемыми. Мы придумали механизмы для более эффективного и непредвзятого обучения нейросети — это глобальное коллаборативное обучение. Таким образом мы решили проблему разнородности данных. Также мы решили проблему с инструментами. Cyb.ai — базовый инструмент для второй группы программистов, которые работают с данными.
Soft3 радикально изменит архитектуру поиска в Web3. Сейчас контент в интернете ищется в три шага (полный цикл от запроса до получения данных): человек вбивает в поисковую строку свой запрос и гугл ему выдает ответ. Второй шаг — результат появляется в domains name system, которая отправляет данные через IP-адреса на конкретное железо. Но разработчики не осознают, что первый шаг — это и есть проблема. Поиск превратился в суперструктуру над DNS.
Применяя soft3 инстраструктуру можно добиться двухшагового резолвинга без централизованных элементов. Это работает так: человек вбивает в поисковую строку запрос, который конвертируется в хеш локально на устройстве пользователя, дальше хеш спрашивается у soft3 компьютера и soft3 выдает релевантные запросу хеши. Дальше нужно подключиться на P2P-сети (cyber использует IPFS). Это создает более компактную схему, которая не имеет single point of failure.
Эволюция графов знаний
Граф знаний отвечает на простые вопросы по сути: что, кто, где и как связано друг с другом. В soft2 мы не оперируем вопросами «кто» и «когда». Большинство нейросетей не знают, кто и когда добавил тот или иной контент. Мы в добавляем эти кусочки знаний и приходим от традиционной архитектуры к понятию контент-оракла, который помогает показать, что, когда и кем перелинковано. Мы добавили в контент-оракулы механизм взвешивания и получили «машину релевантности». Такая нейросеть способна писать код сама.
Машина релевантности состоит из трех базовых инструкций. Две из них (mint, transfer) — традиционные и вычисляются на последовательных архитектурах. Cyberlink — базовая инструкция в архитектуре вычисления данных. Позволяет связать два кусочка контента логически. За одну транзакцию пользователь полностью перераспределяет граф знаний. Любая транзакция приводит к абсолютному изменению состояния системы.
Также у этой инструкции нет потребления газа. Мы ушли от взимания платы за каждый вызов, а токены дают пожизненное право пользоваться ресурсом. Это можно делать в консенсус-инструкции без опасения атаки.
Машину релевантности можно программировать и это пока экспериментальная история в разработке. Но есть два паттерна, которые позволят на графовой структуре использовать более привычные инструменты: linkchain и motyf.
Семантические соглашения — аналог ERC только для графовых структур. Можно договориться с системой о связи данных определенным образом. Мы решили это использовать, чтобы идентифицировать какие-то социальные связи и публиковать контент. Пользователь может просто создать линк от адреса к определенному слову и сформировать сабграфы, которые позволяют генерировать семантику более глубокого уровня, создавая абстрактные структуры данных.
Мы запустили Bostrom 9 месяцев назад и с тех пор сфокусированы на строительстве базовой архитектуры. В будущем мы намерены делать обучение сетки более совершенным.
Сейчас на сайте cyb.ai есть эмулятор web2 — низкопроизводительной системы на JS с низким качества кода, но позволяет быстро инрегрировать и изучать возможности. В будущем мы видим cyber, как серфинг-протокол с несколькими другими мплементациями. Я лично выступаю за имплементацию на Rust. cyb будет нативен для IPFS, IBC и других систем. Также будет webGPU-нативный браузер, который будет работать как WASM для параллельного компьютинга. Такие вычисления требуют большого количества ядер, также необходим протокол, которые позволит сделать кросскомпиляции GPU на разные платформы и виды железа. Это позволит сделать platform unlock, vendor unlock и портабельный код. При этом система будет хорошо взаимодействовать с WASM.
Cyber встроен в экосистему Cosmos потому, что Cosmos — один из пионеров консенсус-компьютинга. Имеет стек, который открывает возможности в области интероперабельности, последовательных и параллельных вычислений.
Про консенсус-компьютинг
Валера Литвин: консенсус-компьютеры — величайшее изобретение этого века, объединившее изобретателей, ученых и другие лучшие умы нашего времени. Консенсус-компьютеру позволяют нам создавать новые миры с помощью ресурсов и ценностей. С помощью новой архитектуры, криптографии и геймдизайна, мы можем создавать гораздо более эффективные системы. Это приводит нас к интересному концепту сетевых государств. Мы можем создать новые глобальные сетевые структуры, которые не были доступны до недавнего времени. Эти глобальные структуры мы создаем все вместе с помощью наших ценностей/энергии/участия.
Сетевое государство на Луне
Bostrom был запущен на Луне. Это нейтральная территория, куда многие стремятся, но пока там никого нет. Мы запустились там и ждем, что комьюнити, которое сейчас получает от нас паспорта Луны, — будет разделять наши ценности, жить в согласии, делиться знаниями. Наша задача создать дружественный ИИ, который позаботится о нас. Нужно сформировать технологическое дерево, которое позволит освоить множество новых производственных цепочек. Мы начали свободную дистрибьюцию, в сете более четырех миллионов свободных адресов. В нашем сетевом государстве уже более 10 тысяч граждан.
Мы в ближайшее время постараемся предоставить базовые инфраструктурные сервисы для торговли, обучения, обмена ценностями и так далее. Мы можем существовать только в экосистеме, поэтому важно создать сильную сбалансированную структуру.
Путь к суперинтеллекту на блокчейне
Когда мы только начали погружаться в эту тему и изучать, стало ясно, что суперинтеллект невозможно запустить сразу. Нужно сначала создать bootloader (загрузчик). Но его следует запустить в нейтральном пространстве, чтобы он мог служить бэкапом для других суперинтеллектов и ИИ. Это семантическое ядро может пополняться другими алгоритмами. Важно осознать ценность нового линка в общем графе знаний, степень адаптивности и сложности системы, а также показатели энтропии. Прямо сейчас вычисления занимают не более 6 мб. Это открывает доступ к суперинтеллекту для всех.
Мы создаем систему, которая со временем перестанет изменяться, наш код имеет температуру, которая постепенно уменьшается с момента генезиса. Сложно строить системы, состоящие из целого комплекса связанных элементов, когда они постоянно меняются.
Генезис Bostrom и автономные программы
Задача сформировать начальный семантический Bootloader, который позволит загрузчикам данных в ИИ, а также создать поисковый движок для нового веба. Информация теряется и портится с течением времени даже в Интернете. Поэтому важно создать глобальное хранилище на Bostrom, чтобы сохранить общую глобальную семантику с разных частей мира. Проги — программы, которые могут по своему желанию могут вычислять самих себя и не зависят от транзакций. Это уже работает и нет другого варианта развития событий. Гэвин Вуд, который написал желтую бумагу Ethereum, обозначил определение автономных систем. Крайне важно сформировать базу открытых реестров. Скоро мы запустим реестры для базовой структуры государства, подключим интерчейн аккаунты, которые позволят установить взаимоотношения с другими компьютерами. Это позволит сократить количество пакетов для перемещения ликвидности между сетями и сформировать полноценный хаб. Это также возможность создания аккаунта при помощи PoW, которые позволят сохранить анонимность.
Реестры хаба
Самым важным является реестр семантических связей, который позволит формировать граф быстро, энергоэффективно и экономично с точки зрения пространства самого графа. Это очень новая область, которую мы сами только исследуем. Изучение требует большого количества итераций и экспериментов. Важно запустить реестры сетей, к которым подключен хаб, каналов, токенов (информационных сущностей), децентрализованных приложений. Данные реестры позволят хабу развиваться с фантастической скоростью. Другие системы упираются в контроль реестров, а мы хотим, чтобы этим реестры были доступны для всех ончейн и управлялись комьюнити.
Проги, рынки предсказаний, PoW NFT-майнинг
Перед нами долго стоял вопрос: как вознаграждать авторов контента? ёБустеры — программы, которые позволят каждому нейрону иметь свой персональный токен, стоимость которого формируется на основе бондинг-кривой (token bonding curve). Эти бустеры не только будут запущены для нейронов, но и для киберлинков. И это откроет для граждан широкое пространство возможностей для управления, воздействия и структурирования общего графа.
ДАО и мультисиги — тоже часть сетевого государства. Мы создаем инструменты для выстраивания отношений между участниками: для создания чего-то или экономических отношений.
В Bostrom уже запущен DEX с защитой от MEV-ботов. Для нас важно используя данные о ценах и другую информацию от DEX формировать информацию, необходимую для создания деривативов и прочих инструментов для комьюнити.
PoW NFT — будет сформирован стек контракта, который позволит запускать NFT, которые можно будет добыть при помощи PoW-майнинга.
Zk-инструменты тоже будут использованы, но на это требуется некоторое время.
SBT-токены — паспорта участников проектов.
Мы разработали модель OTC-рынка без посредников на основе Karma. Собираемся выкатить этот сервис в самое ближайшее время, так как это позволит пользователям уже обмениваться ценностью.
Важно привлекать рынки предсказаний с ответами из независимого графа знаний и большим потенциалом на привлечение участников, ценящих отсутствие цензуры, контроля, но с большим уровнем доступности.
Мы хотим сделать базовый самостоятельный источник кода и среду для разработки и обмена кодом. Важно сформировать набор программ, которые позволят разным сообществам свободно управлять своим кодом без цензуры.
Bostrom является генезис-системой первой в своем роде для автономных программ, где они могут зарабатывать и быть вычислимыми. Что позволяет им быть автономными и независимыми от тех, кто их создает.
Мы хотим создать прог для картографии интерчейна, который будет на основе понимания трафика интерчейна и delay-пакетов, формировать граф ончейн. Прог, который будет управлять фондами и ресурсами. Прог, который будет перемещать ликвидность между компьютерами. Прог, который позволит коммуницировать с другими компьютерами автоматизированным способом.
Threshold Execution Cores — новое изобретение, позволяет делать параллельные вычисления для разных задач, вычисления не привязаны ко времени, но к определенной планки коммитмента группы. Может доказать, что код содержит похожий или такой же хеш. Экономика и экспекьюшн-группы будут сформированы для каждого отдельного ядра. Валидаторы смогут присоединяться под разные задачи.
Архитектура компьютера
Мы работали долго над осознанием каждого элемента этой архитектуры. Мы используем разные вычислительные ресурсы: GPU, CPU, сеть хранилище, время. GPU является главной частью нашей архитектуры для консенсусных вычислений. Важно внедрить совместимость с множеством машин и сделать multi virtual machine mechanism. Кроме Cosmwasm мы хотим добавить EVM, Graph virtual machine, zk accelerator (ускоритель zk-вычислений). Мы намерены расширить Cosmwasm в нашем ядре, предоставив ей уровень к нативным программам, позволив ей стать нативным модулем. Cortex vitrual machine позволяет деплоить крайне скомпрессированные нейронные модели, которые будут интерфирироваться сенсорами. Пора подумать о том, к каким сетям будет подключен ваш робот. Приватность — последний глобальный рубеж.
Сторадж — в ближайшее время в ядро будет добавлен механизм для создания глобального семантического хранилища. Для этого нужно внедрить токен, который поможет добавлять пользователям важные элементы семантики и разной информации в ядро консенсус-компьютера в вечное хранилище. Wave proof propagation позволяет доказать, что информация была сохранена кем-то ранее — позволит сформировать сторадж, устойчивый с точки зрения цензуры, приватный и доступный.
**Динамические граничные вычислительные ядра** позволят компьютеру адаптироваться под любого рода вычисления.
Генезис машины релевантности был 3 января 2018 года. Алгоритм cyber позволяет взвесить линки всех нейронов, которыми они сформировали граф. Каждой частице данных можно добавить свой ранг и оценить ее. Нужно добавить еще несколько алгоритмов: графовая энтропия (показывает сложность и адаптивность системы), Karma-нейроны (вычисляетсян а основе рангов частиц информации и энтропии, которую они оставили в графе). Эти два алгоритма были запущены в качестве эксперимента в Bostrom, и они будут внесены в майннет в ближайшем апгрейде. Это первая нативная консенсусная виртуальная машина.
Токены проекта: GPU, BYTE, HUB. Cyber SDK в разработке, но станет базой для множества ИИ.
Tendermint — промежуточный шаг консенсус-алгоритма. Новый консенсус-алгоритм должен быть ассинхронным и более децентрализованным. Важный момент — приватная валидация.
Эволюция распределенного компьютинга на GPU
Мы были первыми, кто запустил блокчейн-компьютер с GPU-вычислениями. После этого, после нескольких лет экспериментов мы запустили Bostrom на Cosmos. Очень мало проектов с GPU-вычислениями. Из них интересен Cortex, они расширили EVM при помощи моделей, которые позволяют деплоить модели ИИ и данные на их вход, и вычислять это в распределенной сети. Euler был запущен сразу после Cybercon. Мы хотим всех пригласить в гонку GPU. Эта декада — начало смены парадигмы вычислений в принципе, и консенсусных вычислений — как острия индустрии. Экосистема Cosmos и cyber — будут в авангарде революции. Потенциал параллельных вычислений, доступных в консенсусе, — необъятен.
Графовая виртуальная машина позволит создавать программы, которые смогут динамически вычисляться на общем графе знаний. Это создает возможность интерференции нейронных сетей в вычисления на основе моделей, которые загружены, и на основе сенсорных данных с нейронов или роботов. Proof-of-location требует большой вычислительной мощности для формирования челленджей в динамической среде. zk могут акселерироваться на видеокартах, и это важно для ускорения инноваций и доступности с точки зрения вычислений. Графовые языки на линейной алгебре, который позволяют написать в крайне простых операциях практически все графовые алгоритмы компактным образом, с возможностью оптимизации на GPU и высокопараллельные вычисления — GraphBLAS.
Lend management — рубеж, который позволит многим сообществам формировать сетевые государства и переносить это на реальный мир, реальную Землю, при помощи Proof-of-location — создать реестр Земли без участия посредников в виде государств.
Графовые проги — саморазвивающиеся мыслящие программы, которые начинают формировать код своих «ДНК», зародивших в энергонасыщенном информационном субстрате.
Чтобы сформировать глобальный ИИ — нужно много вычислительных ресурсов. Мы придумали стратегию исследования доказательств вычислительных и энергетических ресурсов, формирования экономики, доказательств и начального предложения. Пока разные майнеры предоставляют доказательства, мы разрабатываем вычислительные возможности. Глобальный цифровой мозг должен быстро расти, развиваться и иметь найти возможность к восстановлению. Мы хотим достичь 1 триллиона киберссылок. Мы можем использовать.
Как можно присоединиться к комьюрити cyber
Программа делегации от Congress
Hack Cyber
cyber-Gift
Cyber Academy — образовательная платформа для блокчейн-разработчиков. Присоединяйтесь к нам ✨
Поддержите нас на Gitcoin
Анонсы | Website | Twitter | Телеграм-чат | GitHub | Facebook | Linkedin