Перейти до основного вмісту
Google BERT

BERT (Bidirectional Encoder Representations from Transformers) – це технологія попереднього навчання обробці тексту природною мовою. Вона аналізує не окремі слова, а запити повністю, дозволяючи краще розуміти контекст запитів і точніше шукати відповідь.

Технологія допомагає моделям ІІ отримати «загальне уявлення про мову» на великих корпусах нерозміченого тексту, наприклад з «Вікіпедії». Потім ці алгоритми можна використовувати для певних завдань.

Використання моделей BERT дозволяє зробити пошук більш ефективним для довгих та розмовних запитів, а також запитів із прийменниками. В результаті пошукова система здатна краще розуміти контекст і показувати відповідні результати, а значить, користувачі можуть вводити більш природні запити.

Система обробки тексту природною мовою BERT була вперше представлена ​​в 2018 році для англомовного пошуку, а з грудня 2019 року оголосили про запуск роботи алгоритму по всьому світу.

ПІдписка

Об авторе

Автор цього блогу. У SEO понад 10 років. Окрім SEO цікавлюся всім, що пов'язано з технологіями та заробітком в інтернеті про що й стараюся ділитися з читачами.