← Все новости

Биологические нейроны в AI-процессинге: материал, который может перевернуть сам принцип работы ИИ-моделей

• Категория: Интересные разработки с ИИ • Автор: Алексей Воронов • Проверил: Екатерина Морозова • 17.02.2026 16:27

На днях вышел крайне интересный материал на Tom's Hardware о стартапе из Сан-Франциско — The Biological Computing Company, который заявил о создании первой биологической вычислительной платформы для задач искусственного интеллекта.

Если коротко — речь идёт о попытке заменить часть кремниевых вычислений в AI-инфраструктуре… живыми нейронами.

Звучит как научная фантастика, но потенциально это может означать смену парадигмы всей индустрии машинного обучения.


Сухие цифры и факты

Согласно опубликованным данным:

  • система использует живые биологические нейроны как вычислительную среду

  • реальные данные (изображения, видео) кодируются в нейронную активность

  • активность нейронной сети затем декодируется обратно в представления для AI-моделей

  • биологическая вычислительная подсистема может:

    • работать до 5 раз быстрее, чем классические кремниевые ускорители

    • потреблять меньше энергии

    • обеспечивать более высокую точность представления данных

Стартап уже привлёк около $25 млн инвестиций и планирует разворачивать полноценную лабораторию для разработки подобной инфраструктуры.

По сути, речь идёт о создании гибридного вычислительного слоя, который располагается между данными и классическими deep learning-моделями.


Что именно они делают

Архитектура выглядит примерно так:

  1. Изображения или видео поступают в биологическую нейросеть

  2. Нейроны реагируют на стимулы и формируют паттерны активности

  3. Эти паттерны считываются через электрические интерфейсы

  4. Далее они используются как более «богатое» представление данных

  5. И уже потом подаются в традиционные AI-модели

Фактически — это preprocessing-слой, но выполненный не в виде алгоритма, а в виде живой биологической системы.

Компания заявляет, что подобный подход способен улучшить:

  • computer vision

  • генеративное видео

  • алгоритмический поиск

  • AI-инфраструктуру в целом


Почему это важно для индустрии

Сегодня все современные модели — от LLM до diffusion-сетей — работают на одной и той же фундаментальной архитектуре:

  • линейная алгебра

  • матричные операции

  • градиентный спуск

  • massive GPU compute

Это означает:

  • огромные энергозатраты

  • масштабирование только за счёт железа

  • экспоненциальный рост стоимости обучения

Биологические вычисления относятся к направлению так называемого
Organoid intelligence — где в качестве hardware используются выращенные нейронные структуры.

Подобные системы теоретически способны:

  • обучаться быстрее

  • работать с временными зависимостями лучше

  • обрабатывать шумные данные эффективнее

  • потреблять на порядки меньше энергии

То есть выполнять часть задач, для которых сегодня требуются тысячи GPU.


Практическое применение в IT (если это взлетит)

Если подобные платформы дойдут до production-уровня, мы можем увидеть появление:

1. Биологических AI-ускорителей

Аналог GPU, но:

  • с меньшим энергопотреблением

  • лучшей обработкой видео и изображений

  • встроенной адаптивностью

2. Нового поколения AI-агентов

Системы, которые:

  • быстрее обучаются на реальном мире

  • лучше обобщают данные

  • устойчивы к изменению входных параметров

3. Self-learning backend-модулей

Например:

  • антифрод-систем

  • систем мониторинга

  • рекомендательных движков

  • обработки логов

Где часть логики будет выполняться не цифровой моделью, а био-вычислительным слоем.


Что это значит для разработчиков

Мы можем находиться на этапе, аналогичном переходу:

CPU → GPU
GPU → TPU

И следующим шагом может стать:

Silicon → Wetware

Разумеется, на текущий момент технология остаётся экспериментальной, а сами разработчики говорят о горизонте внедрения в 10–20 лет.

Но если концепция окажется рабочей, это потенциально:

  • изменит архитектуру AI-моделей

  • снизит стоимость обучения

  • уменьшит зависимость от GPU-кластеров

  • позволит создавать более энергоэффективные AI-системы

А значит — может полностью изменить подход к разработке AI-продуктов так же, как когда-то это сделал deep learning.