Oracle выпустила Semantic Kernel для семантического поиска без LLM
Компания Oracle представила Oracle Semantic Kernel — новый инструментарий, предназначенный для разработки систем семантического поиска без привлечения больших языковых моделей (LLM). Решение интегрировано с текущим стеком технологий Oracle, включая Oracle Autonomous Database и Oracle AI Cloud. Основная идея заключается в предоставлении альтернативного пути построения интеллектуальных приложений, обеспечивающего баланс между эффективностью обработки данных и затратами на инфраструктуру.
Принцип работы и архитектурные особенности
Oracle Semantic Kernel функционирует посредством обращения к уже существующим базам данных и AI-сервисам корпорации. Проще говоря, инструмент позволяет разработчикам реализовать понимание естественного языка при поиске по структурированным и неструктурированным массивам данных, исключая этап обучения или эксплуатации громоздких языковых моделей. Это снимает необходимость в колоссальных вычислительных мощностях и специфических наборах данных, которые обычно требуются для корректной работы LLM.
Технология поддерживает широкий спектр типов данных, что позволяет индексировать и анализировать не только текст, но и изображения, а также видеоконтент. В инструментарий включены встроенные функции извлечения сущностей, дополнительной разметки данных (data enrichment) и анализа тональности (sentiment analysis). На практике это значит, что система может автоматически повышать точность и релевантность выдачи без внедрения сторонних нейросетевых архитектур.
Безопасность и стратегическое позиционирование
Выпуск Oracle Semantic Kernel отражает стремление компании предложить инструменты для создания интеллектуальных систем, ориентированных на модели развертывания внутри локальной инфраструктуры. Если коротко, это важное преимущество для организаций, для которых критически важны конфиденциальность и безопасность данных. Использование собственных мощностей Oracle позволяет не выводить информацию за пределы корпоративного контура, что зачастую затруднительно при работе с облачными LLM-вендорами.
Помимо базового функционала поиска, платформа поддерживает стандартные задачи обработки естественного языка (NLP) и алгоритмы машинного обучения. Это открывает возможности для создания прикладных решений: от специализированных чат-ботов до сложных рекомендательных систем. Данный подход направлен на демократизацию технологий ИИ, снижая порог входа для организаций, которые стремятся внедрять интеллектуальный поиск в свои продукты, но не имеют ресурсов для поддержки полномасштабных LLM-проектов.