Фиксирую тут, чем я последние месяцы занимаюсь.
Мы с ребятами собрали экспериментальный прототип дрона, которым управляет не человек с пульта, а маленькая нейросеть прямо на борту. На дроне стоит обычный полётный контроллер вроде Betaflight, сверху — маленький компьютер, и вся эта связка живёт в режиме: дрон снимает телеметрию и картинку, ИИ это жует и раз в несколько секунд решает, что делать дальше — подняться, притормозить, развернуться, опуститься, зависнуть и т.д. По софту это уже не «игрушка на выходные», а серьёзный R&D: свой контроллер для общения с полётным стеком, свой компактный формат команд, отдельный ИИ-пилот на маленькой LLM, который учитывает историю полёта, высоту, скорость, угол, «чувство» дрона в пространстве и пытается вести себя последовательно, а не хаотично. Железо пока скромное: маленький фрейм, не самый дорогой стек, датчики местами капризные, плюс ограничение по ресурсам — мы сознательно тащим всё это на относительно слабом железе, чтобы понять, где реальная граница между «маркетинговым ИИ» и тем, что может жить на нормальном бытовом уровне, без серверной и дата-центра.
Если в двух словах сравнивать с тем, что вообще есть на рынке: большинство «умных» дронов либо летают на классических автопилотах с заранее прошитыми сценариями, либо используют тяжёлые, дорогие решения с мощными GPU и узкоспециализированными моделями под одну задачу. У нас эксперимент в другую сторону — максимально компактный мозг, который сам по себе понимает обстановку и принимает высокоуровневые решения на основе телеметрии и камеры. Разработана своими силами визуальная навигация (свой GPS на борту, который не требует подключения к интернету или GPS-датчика), при этом всё работает на доступном железе — я б сказал, на очень дешёвом относительно таких задач, — и общается с обычным полётным контроллером через стандартные протоколы.
Инновация в том, что мы не пишем под каждую ситуацию отдельный «if/else» и не завязываемся на облако: маленькая модель сама учится вести себя аккуратнее, опираясь на историю полёта и состояние дрона, а наша задача — правильно упаковать мир дрона в язык, понятный этому мозгу. Преимущество подхода — в гибкости: такой ИИ-пилот можно ставить на разные платформы, не переписывая весь автопилот с нуля, а ограничения сейчас вполне приземлённые — посредственное железо, ограниченная память, капризные датчики и то, что всё это всё ещё стадия живой лабораторки, то есть ограничения на данном этапе только финансовые.
Мы шаг за шагом шлифуем цикл «датчики — ИИ — команда — реакция дрона», собираем логи, подкручиваем логику и промты, смотрим, как маленькая модель ведёт себя в реальном мире, а не в теории. Пока что, по определённым соображениям, не могу опубликовать видео тестовых запусков, но это произойдёт очень скоро.
Это просто фиксация: параллельно с обычной работой у меня идёт такой вот долгий тихий эксперимент с управлением дроном через ИИ на борту, который я постепенно довожу до вменяемого состояния.
Итог: продукт готов, сейчас уже обсуждаем применения этого продукта.
Прошёл уже год с первого сбора и с того момента, как мы начали этот процесс, и я, и команда в культурном шоке от результатов — мы не ожидали, что всё получится в таком виде.
Я не пропал — я созидал, чтобы вернуться уже с новым взглядом на будущее.
Мы с ребятами собрали экспериментальный прототип дрона, которым управляет не человек с пульта, а маленькая нейросеть прямо на борту. На дроне стоит обычный полётный контроллер вроде Betaflight, сверху — маленький компьютер, и вся эта связка живёт в режиме: дрон снимает телеметрию и картинку, ИИ это жует и раз в несколько секунд решает, что делать дальше — подняться, притормозить, развернуться, опуститься, зависнуть и т.д. По софту это уже не «игрушка на выходные», а серьёзный R&D: свой контроллер для общения с полётным стеком, свой компактный формат команд, отдельный ИИ-пилот на маленькой LLM, который учитывает историю полёта, высоту, скорость, угол, «чувство» дрона в пространстве и пытается вести себя последовательно, а не хаотично. Железо пока скромное: маленький фрейм, не самый дорогой стек, датчики местами капризные, плюс ограничение по ресурсам — мы сознательно тащим всё это на относительно слабом железе, чтобы понять, где реальная граница между «маркетинговым ИИ» и тем, что может жить на нормальном бытовом уровне, без серверной и дата-центра.
Если в двух словах сравнивать с тем, что вообще есть на рынке: большинство «умных» дронов либо летают на классических автопилотах с заранее прошитыми сценариями, либо используют тяжёлые, дорогие решения с мощными GPU и узкоспециализированными моделями под одну задачу. У нас эксперимент в другую сторону — максимально компактный мозг, который сам по себе понимает обстановку и принимает высокоуровневые решения на основе телеметрии и камеры. Разработана своими силами визуальная навигация (свой GPS на борту, который не требует подключения к интернету или GPS-датчика), при этом всё работает на доступном железе — я б сказал, на очень дешёвом относительно таких задач, — и общается с обычным полётным контроллером через стандартные протоколы.
Инновация в том, что мы не пишем под каждую ситуацию отдельный «if/else» и не завязываемся на облако: маленькая модель сама учится вести себя аккуратнее, опираясь на историю полёта и состояние дрона, а наша задача — правильно упаковать мир дрона в язык, понятный этому мозгу. Преимущество подхода — в гибкости: такой ИИ-пилот можно ставить на разные платформы, не переписывая весь автопилот с нуля, а ограничения сейчас вполне приземлённые — посредственное железо, ограниченная память, капризные датчики и то, что всё это всё ещё стадия живой лабораторки, то есть ограничения на данном этапе только финансовые.
Мы шаг за шагом шлифуем цикл «датчики — ИИ — команда — реакция дрона», собираем логи, подкручиваем логику и промты, смотрим, как маленькая модель ведёт себя в реальном мире, а не в теории. Пока что, по определённым соображениям, не могу опубликовать видео тестовых запусков, но это произойдёт очень скоро.
Это просто фиксация: параллельно с обычной работой у меня идёт такой вот долгий тихий эксперимент с управлением дроном через ИИ на борту, который я постепенно довожу до вменяемого состояния.
Итог: продукт готов, сейчас уже обсуждаем применения этого продукта.
Прошёл уже год с первого сбора и с того момента, как мы начали этот процесс, и я, и команда в культурном шоке от результатов — мы не ожидали, что всё получится в таком виде.
Я не пропал — я созидал, чтобы вернуться уже с новым взглядом на будущее.