Информационная безопасность / SEOшники помнят о robots.txt, но?..
Уж много времени прошло с тех пор, как волною накрывала эпопея с индексированием личных данных обычных пользователей. Тогда все свалили на нерадивых вебмастеров, мол — не знали о robots.txt и о том, что можно запрещать индексацию.
Но кто мог ожидать подобного поведения от «метров» отечественного SEO-бизнеса? Да еще и в какой деликатной теме, как данные о сайтах, продающих ссылки. Если не тянуть кота за хвост, то смысл этого поста заключается в том, что sape.ru позволяет индексировать сайты-диспенсеры ссылок для площадок (раз, два). И это в то время, когда за продажные ссылки вводятся санкции.
Источник:Все о Google на Хабрахабре
Источник:Все о Google на Хабрахабре
Похожие новости
- Perplexity запускает Comet — собственный AI-браузер, бросающий вызов Google
- OSINT на боевом рубеже: новый фронт военной разведки
- Блеск и ад p2p-торговли на Bybit
- Руководство по pgcrypto — шифрование внутри PostgreSQL. Часть 2
- Как я подружил Yandex Cloud и Gemini API без миграции на зарубежные сервера
- Деньги ушли в Telegram, а риэлтор — в тень: как россиян обманывают при покупке недвижимости в Таиланде
- Крепость под наблюдением: ставим Maltrail и ловим «шпионов» (Часть 2)
- uniSiter: Wildberries доставляет еду, Яндекс запускает биржу тг-каналов, Самокат тестирует доставку дронами
- Роль стандартизации программного обеспечения в эффективном обслуживании АСУ ТП
- CDP без мифов: зачем бизнесу собственные данные и как наиболее эффективно работать с ними