Добрый день!
Пожалуйста, подскажите, кто знает (кто как сам решает эту проблему)...
Как защитить определенные страницы своего сайта от парсинга, т.е. чтобы пользователи открыв страницу вручную из браузера могли видеть все содержимое, а при закачке страницы программно - содержимое страницы было бы другим, но при этом, надо чтобы поисковики - читали правильное содержимое, ну или если это невозможно - фиг с ними с поисковиками...
В общем задача - как распознать открыли страницу вручную из браузера или закачали программно (а уж подменить в выдачу текст страницы я уж думаю справлюсь).
Хотелось бы узнать разные мнения/методы...
Спасибо!
1. lucidmind - 27 Августа, 2012 - 11:09:31 - перейти к сообщению
2. Мелкий - 27 Августа, 2012 - 11:26:24 - перейти к сообщению
Невозможно в принципе.
Всё, что видит пользователь - можно забрать программно.
Всё, что видит пользователь - можно забрать программно.
3. Zuldek - 27 Августа, 2012 - 12:14:22 - перейти к сообщению
1 100%-й метод: проводить тест Тьюринга для любого пользователя перед показом скрываемого контента.
4. EuGen - 27 Августа, 2012 - 12:15:52 - перейти к сообщению
Zuldek
Вот только, я думаю, все здесь согласятся с тем, что скрипт, который реализует тест Тьюринга программно (в автоматическом режиме), сам пройдет тест Тьюринга.
Вот только, я думаю, все здесь согласятся с тем, что скрипт, который реализует тест Тьюринга программно (в автоматическом режиме), сам пройдет тест Тьюринга.
5. Zuldek - 27 Августа, 2012 - 12:17:24 - перейти к сообщению
А не было речи о том что этот тест должен быть автоматизирован Это как мы все понимаем еще более сложно чем "вручную" отличить робота от человека