Library
panel25.seowebdev
SnS Standart Pack
Управление содержимым
Контент
Cтраницы / Информация
Обзоры
Заметки
Метки
Контент
Комментарии
Связи
Карточки контента
Типы карточек
Библиотека
Книги / Библиотека СЕО
Главы / Тексты
Авторы / Авторы
Персонажи
Жанры
Продвижение
FAQ
Примечания
Анонсы
Новости
Материалы
Инструменты
Мета-описания
Ключевые слова
Черновики
Ссылки
Экспресс-правка
Сервисы
Решения
Бренды
Обзоры
Страницы / Информация
Новости / Новости
Книги / Библиотека СЕО
Главы / Тексты
Управление сайтом
On-Page SEO
Просмотр логов
Пользователи
Пользователи
Визиты
Профили
Уведомления
Рассылки
Проверка ссылок
Главная
Фронтенд (Realtime)
Задачи
Начало сессии:
19 февраля 2026 г. в 20:37:35 GMT+3
Mega Menu
Книги
5
Главная
Структура
Создать
•
Справочник по SEO
21-07-2025 в 10:46:42
•
Руководство по платформе ShopnSeo
05-06-2025 в 15:31:28
•
Конструкторы сайтов и CMS
21-05-2024 в 14:32:44
•
Гид по On-Page SEO
28-03-2024 в 12:52:25
•
Полный гид по SEO
28-03-2024 в 12:49:34
Главы
5
Главная
Структура
Создать
•
Поисковая оптимизация (SEO)
10-09-2025 в 01:34:10
•
SEO контент
10-09-2025 в 01:32:55
•
Log file. Лог-файл
10-09-2025 в 01:31:05
•
DMOZ
10-09-2025 в 01:30:47
•
Author Authority / Авторитет автора
10-09-2025 в 01:30:16
Страницы
5
Главная
Структура
Создать
•
Копия страницы - Копия страницы - High Load Hosting
19-02-2026 в 20:29:42
•
Копия страницы - Копия страницы - Команда
19-02-2026 в 20:21:20
•
Копия страницы - Копия страницы - Копия страницы - Портфолио
19-02-2026 в 19:59:07
•
Копия страницы - Копия страницы - Копия страницы - История
19-02-2026 в 19:57:06
•
Копия страницы - Копия страницы - Цены
19-02-2026 в 19:31:44
Анонсы
0
Главная
Структура
Создать
Новости
5
Главная
Структура
Создать
•
Новая AI-модель для выявления мошеннических рекламодателей
12-01-2026 в 16:57:50
•
Google объяснил ошибку «Индекс без контента»
12-01-2026 в 16:54:26
•
Google тестирует синюю кнопку Send вместо AI Mode
12-01-2026 в 16:49:12
•
Google советует ориентироваться на поведение аудитории
12-01-2026 в 16:47:10
•
Google тестирует и убирает AI Overviews
12-01-2026 в 16:45:31
Материалы
0
Главная
Структура
Создать
FAQ
5
Главная
Структура
Создать
•
Что такое UI-дизайн?
05-09-2025 в 09:20:44
•
Что такое брендинг?
05-09-2025 в 09:20:37
•
Что такое дизайн?
05-09-2025 в 09:20:36
•
Что такое веб-дизайн?
05-09-2025 в 09:20:35
•
Что такое UX-дизайн?
05-09-2025 в 09:20:33
Примечания
0
Главная
Структура
Создать
Express Menu
Раздел
Товар
Страницы
Книги
Главы
Блоги
Посты
Новости
Материалы
Создать
Раздел
Продукт
Страницу
Книгу
Главу
Блог
Пост
Новости
Материал
Анонс
Черновик
Управление сайтом
Главная
Контакты
Пользователи
Профили пользователей
LinkGazer
Структура сервера
Почистить кэш навигатора
Новых сообщений нет
Смотреть все сообщения
Гость
Профиль
class
Настройки
Помощь
Выйти
Главная
Посты
Правка
Первый пост в разделе "Практические примеры"
AI Poisoning: черное СЕО возвращается
Первый пост в разделе "Практические примеры"
Идентификатор ссылки (англ.)
pervyy-post-v-razdele-prakticheskie-primery
Статус:
Активен
Описание
AI Poisoning: черное СЕО возвращается
Идентификатор ссылки (англ.)
ai-poisoning-black-hat-seo-is-back
Статус:
Активен
Описание
'#8. Посты : posts';
'Blog_PostController_actionUpdate_';
'#blog_post_update';
Новые веб-стандарты могут изменить способ использования AI. Правка
Активен
Почистить кэш постов
Экспресс-правка
Разметка
ред. Summernote
ред. Quill
ред. CKEditor
ред. Trumbowyg
ред. Imperavi
ред. Jodit
Сохранить
Общая информация
Сменить блог
SEO-блог. (5)
Продвижение. (7)
Сайты. (6)
AIO/GMO Lab. (11)
Название
id
(статус)
764
(3)
Идентификатор ссылки (англ.)
new-web-standards-could-redefine-how-ai-models-use-content
Сайт (ID сайта)
. #3
Смотреть на сайте
https://panel25.seowebdev.ru/posts/aio-gmo-lab/new-web-standards-could-redefine-how-ai-models-use-content/
Время последнего обновления
28-11-2025 в 00:40:53
Ссылка в БД
https://panel25.seowebdev.ru/seowebdev.ru/posts/aio-gmo-lab/new-web-standards-could-redefine-how-ai-models-use-content/
Картинка
https://static.seowebdev.ru/cache/8/764-new-web-standards-could-redefine-how-ai-models-use-content_col-12.webp
Полное название и описание
Полное название
Новые веб-стандарты могут изменить способ использования AI ваших материалов
Описание поста
Как правило описание должно иметь около 150 знаков. Оно используется для заполнения мета-тега Description веб-страницы.
Сейчас используется -
0
символов
Скопировать
Вставить
Сохранить
Описание скопировано!
Описание вставлено!
Метки
Выбрать метки seowebdev.ru:
Показать остальные метки
веб-разработка
шаблоны
бизнес-сайт
оптимизация
корпоративный сайт
продвижение
сайт-визитка
искусственный интеллект
контент
веб-аналитика
одностраничник
интернет-магазин
веб-дизайн
SEO
дизайн
креативное агентство
премиальный сайт
верстка
хостинг
портфолио
сервер
кафе/рестораны
туризм
фронтенд
представительский сайт
техподдержка
техническое SEO
редакторская правка
финансы
маркетинг
стандарт
обновление
социальная сеть
аналитика
bootstrap
медицина
ShopnSEO
ссылки
интернет
разработка
ключевые слова
CMS
недвижимость
sass
скорость загрузки
автотехника
бизнес
домен
новости
ранжирование
Shopnseo Creative
уровни
вакансии
блог
ГуглАналитика4
краулинг
мебель
образование
правка
wordpress
юридическое агентство
реклама
Добавить новые метки, через запятую:
Текст поста
Ключевое слово отсутствует
Полный текст
< > & " ' « » – — … • · ← → ↑ ↓ ↔
Дополнительные символы
Юридические:
© ® ™
Валюты:
€ £ ¥ ¢
Типографика:
§ ¶ ° ± × ÷
Дроби:
½ ⅓ ⅔ ¼ ¾ ⅛ ⅜ ⅝ ⅞
Греческие:
α β γ δ ε λ μ π σ ω Δ Σ Ω
Математические:
≈ ≠ ≤ ≥ ∞ √ ∑ ∫ ∂ ∇
<p>Новый протокол может дать вам контроль над тем, как AI-модели собирают и используют ваш контент. Узнайте, какие правила разрабатываются и почему они важны.</p> <p>В последние годы открытый веб ощущался как Дикий Запад. Создатели видели, как их работы копировались, обрабатывались и использовались в больших языковых моделях – в основном без их согласия.</p> <p>Ситуация стала настоящим «свободным доступом к данным», с почти нулевыми возможностями для владельцев сайтов отказаться или защитить свои материалы.</p> <p>Были попытки, такие как инициатива <strong>llms.txt</strong> от Джереми Ховарда. Подобно <strong>robots.txt</strong>, который позволяет владельцам сайтов разрешать или блокировать доступ поисковых роботов, llms.txt предлагает правила для ботов AI-компаний.</p> <p>Однако нет чётких доказательств того, что AI-компании соблюдают llms.txt или его правила. Более того, Google официально заявил, что не поддерживает llms.txt.</p> <p>Тем не менее, появляется новый протокол, который даст владельцам сайтов контроль над тем, как AI-компании используют их контент. Он может стать частью robots.txt, позволяя устанавливать чёткие правила доступа и использования сайтов AI-системами.</p> <h3>IETF AI Preferences Working Group</h3> <p>Для решения этой проблемы Internet Engineering Task Force (IETF) запустила <strong>AI Preferences Working Group</strong> в январе. Группа разрабатывает стандартизированные, машиночитаемые правила, которые позволят владельцам сайтов указывать, как (или могут ли) AI-системы использовать их контент.</p> <p>С момента основания в 1986 году IETF определяла ключевые протоколы, работающие в Интернете, включая TCP/IP, HTTP, DNS и TLS.</p> <p>Сейчас они разрабатывают стандарты для эры AI в открытом вебе. Рабочую группу AI Preferences возглавляют Марк Ноттингем и Суреш Кришнан, а также лидеры Google, Microsoft, Meta и других компаний. Примечательно, что Гэри Иллис из Google также участвует в группе.</p> <p>Цель группы:</p> <p>«AI Preferences Working Group стандартизирует строительные блоки, позволяющие выражать предпочтения относительно того, как контент собирается и обрабатывается для разработки, внедрения и использования моделей AI.»</p> <h3>Что предлагает группа AI Preferences</h3> <p>Рабочая группа разрабатывает стандарты, которые дают владельцам сайтов контроль над использованием их контента системами на основе LLM в открытом вебе.</p> <ul> <li>Документ стандартного трека, описывающий словарь для выражения AI-предпочтений, независимо от того, как эти предпочтения связаны с контентом.</li> <li>Документы, описывающие способы прикрепления или связывания этих предпочтений с контентом в протоколах и форматах, определённых IETF, включая использование Well-Known URIs (RFC 8615) и заголовков HTTP.</li> <li>Стандартный метод согласования нескольких выражений предпочтений.</li> </ul> <p>На момент написания статьи окончательных документов нет, но опубликованы предварительные версии, которые дают представление о том, какими могут быть стандарты.</p> <p>В августе были опубликованы два ключевых документа:</p> <ul> <li><strong>Словарь для выражения AI-предпочтений</strong></li> <li><strong>Связывание AI-предпочтений с контентом в HTTP</strong> (Иллис является одним из авторов)</li> </ul> <p>Они предлагают обновления существующего протокола Robots Exclusion (RFC 9309), добавляя новые правила, позволяющие владельцам сайтов указывать, как AI-системы могут использовать их контент.</p> <h3>Как это может работать</h3> <p>Различные AI-системы в сети классифицируются и получают стандартные метки. Пока неясно, будет ли существовать каталог, где владельцы сайтов смогут проверять метки каждой системы.</p> <p>На данный момент определены следующие метки:</p> <ul> <li>search: для индексации/поисковой доступности</li> <li>train-ai: для общего обучения AI</li> <li>train-genai: для обучения генеративных AI-моделей</li> <li>bots: для всех форм автоматической обработки (включая сканирование/сбор данных)</li> </ul> <p>Для каждой метки можно установить два значения:</p> <ul> <li>y – разрешить</li> <li>n – запретить</li> </ul> <h4>Пример robots.txt с использованием новых правил</h4> <pre>User-Agent: * Allow: / Disallow: /never/ Content-Usage: train-ai=n Content-Usage: /ai-ok/ train-ai=y </pre> <p>Объяснение:</p> <ul> <li><strong>Content-Usage: train-ai=n</strong> означает, что весь контент на этом домене нельзя использовать для обучения LLM.</li> <li><strong>Content-Usage: /ai-ok/ train-ai=y</strong> означает, что обучение моделей с использованием контента из подпапки /ai-ok/ разрешено.</li> </ul> <h3>Почему это важно</h3> <p>В SEO-мире много разговоров о llms.txt и о том, почему владельцы сайтов должны использовать его вместе с robots.txt, но ни одна AI-компания не подтвердила соблюдение этих правил. Google точно не использует llms.txt.</p> <p>Тем не менее, владельцы сайтов хотят иметь чёткий контроль над использованием их контента AI-компаниями – будь то обучение моделей или ответы на основе RAG.</p> <p>Работа IETF над новыми стандартами – шаг в правильном направлении. А с участием Иллиса как автора есть надежда, что после окончательного утверждения стандартов Google и другие компании будут соблюдать новые правила robots.txt при обработке контента.</p>
Скопировано в буфер!
Вставлено из буфера!