Содержание
- Что понадобится для работы
- Шаг 1: Получение OpenAI API ключа
- Шаг 2: Настройка и запуск Screaming Frog
- Шаг 3: Экспорт векторных эмбеддингов и всех внутренних ссылок
- Шаг 4: Очистка и форматирование данных
- Шаг 5: Импорт подготовленного файла
- Шаг 6: Построение внутренних ссылок
- Заключение: создание связной структуры внутренних ссылок с помощью эмбеддингов
- Шаблоны и ресурсы
Когда я впервые прочитал статью Майка Кинга о векторных эмбеддингах, честно говоря, меня это немного напугало. Концепции казались слишком сложными, а применение для SEO – запутанным. Но с новыми функциями Screaming Frog и отличным гайдом от Гаса Пелоджи я понял, что это мощный инструмент для построения внутренних ссылок.
Опираясь на эти материалы, я решил написать пошаговое руководство, которое поможет даже тем, кто никогда не работал с Python или векторными эмбеддингами. В этой статье я расскажу, как я использовал этот метод для поиска возможностей внутренних ссылок в большом масштабе, и как вы сможете применить его в своей SEO-стратегии.
Что понадобится для работы
Для всего процесса мне пригодились:
- Screaming Frog
- OpenAI API ключ
- Google Sheets или Excel
В итоге у меня получилась таблица, в которой:
- В колонке A – все важные URL сайта (целевые страницы);
- Во второй колонке – страницы, которые ссылаются на эти URL (без навигационных ссылок);
- Для каждой целевой страницы показаны 5 наиболее близких по смыслу страниц (по косинусному сходству);
- Отмечены те страницы, которые должны ссылаться на целевой URL, но не делают этого.
Шаг 1: Получение OpenAI API ключа
Я зашел на сайт OpenAI, создал новый секретный ключ и скопировал его, чтобы использовать в Screaming Frog.
Шаг 2: Настройка и запуск Screaming Frog
Я загрузил готовый конфигурационный файл для Screaming Frog. После этого открыл вкладку API, выбрал OpenAI и вставил свой API ключ.
Затем переключился на «Prompt Configuration», выбрал «Extract embeddings from page content» и добавил скрипт из библиотеки. Это позволило Screaming Frog извлекать векторные данные для анализа.
Когда в разделе «Custom Extraction» появились числовые значения, я понял, что всё работает правильно.
Шаг 3: Экспорт эмбеддингов и всех внутренних ссылок
- Сначала я сохранил результаты краулинга.
- Экспортировал все внутренние ссылки (файл all_inlinks.csv).
- Затем выгрузил результаты кастомного скрипта с эмбеддингами.
Шаг 4: Очистка и форматирование данных
Я воспользовался удобным скриптом на Google Colab от Бриттни Мюллер. Нужно просто загрузить два файла, и скрипт автоматически приведет всё в порядок.
Если возникали ошибки (например, пустая ячейка в колонке Embeddings), я вручную исправлял файл и запускал скрипт заново.
Шаг 5: Импорт подготовленного файла
Готовый файл я импортировал в Google Sheets. XLSX-версия удобнее, так как сохраняется условное форматирование.
Теперь в таблице для каждой целевой страницы отображались топ-5 релевантных страниц и отметка, есть ли ссылка на целевой URL.
Шаг 6: Построение внутренних ссылок
- Я искал розовые ячейки в таблице – они показывали, где ссылки отсутствуют.
- Открывал такие страницы и добавлял релевантные внутренние ссылки на целевые URL.
- Использовал осмысленный анкор-текст, связанный с содержанием.
- В первую очередь прорабатывал страницы с высоким трафиком.
Заключение: создание связной структуры
Благодаря этому процессу я смог превратить работу с внутренними ссылками в структурированную стратегию. Это не только улучшило SEO-результаты, но и помогло пользователям быстрее находить нужные страницы.
После применения метода на одном клиентском сайте я был удивлен: оказалось, что мы пропустили сотни возможностей. Векторные эмбеддинги помогли найти новые связи между страницами, устранить каннибализацию ключевых слов и улучшить общую архитектуру сайта.