BERT (Bidirectional Encoder Representations from Transformers) – це технологія попереднього навчання обробці тексту природною мовою. Вона аналізує не окремі слова, а запити повністю, дозволяючи краще розуміти контекст запитів і точніше шукати відповідь.
Технологія допомагає моделям ІІ отримати «загальне уявлення про мову» на великих корпусах нерозміченого тексту, наприклад з «Вікіпедії». Потім ці алгоритми можна використовувати для певних завдань.
Використання моделей BERT дозволяє зробити пошук більш ефективним для довгих та розмовних запитів, а також запитів із прийменниками. В результаті пошукова система здатна краще розуміти контекст і показувати відповідні результати, а значить, користувачі можуть вводити більш природні запити.
Система обробки тексту природною мовою BERT була вперше представлена в 2018 році для англомовного пошуку, а з грудня 2019 року оголосили про запуск роботи алгоритму по всьому світу.
- 1 перегляд