Google BERT

BERT (Bidirectional Encoder Representations from Transformers) – это технология предварительного обучения обработке текста на естественном языке. Она анализирует не отдельные слова, а запросы целиком, позволяя лучше понимать контекст запросов и точнее находить для них ответ.

Технология помогает ИИ-моделям получить «общее представление о языке» на больших корпусах неразмеченного текста, например из «Википедии». Затем эти алгоритмы можно использовать для конкретных задач.

Использование моделей BERT позволяет сделать поиск более эффективным для длинных и разговорных запросов, а также запросов с предлогами. В итоге поисковая система способна лучше понимать контекст и показывать соответствующие результаты, а значит пользователи могут вводить более естественные запросы.

Система обработки текста на естественном языке BERT была впервые представлена в 2018 году для англоязычного поиска, а с декабря 2019 объявили о запуске работы алгоритма по всему миру.

Average: 10 (2 votes)
Автор: Александр Зинченко