Жрёт много, подвисает.
Был баг, который при запуске NetBeans бесконечно грузит файлы проекта, но это я вылечил установкой какой-то заплатки.
Система ассоциаций с файлами мне не нравится. Например, в *.html файлах у меня не подсвечивается php код.
В PHPStorm такой проблемы не было.
Алгоритм комментирования кода лучше в PHPStorm, в NetBeans иногда приходится вручную комментарии удалять.
Сейчас впрочем, я вернулся на NetBeans из-за проблем с созданием проекта в локальной сети в PHPStorm.
Перешёл на PHPStorm, ибо NetBeans меня подвёл.
Доволен. От ctrl+alt+L кайфую.
Кстати, существует ли общий стандарт к цвету кода?
Например, функции должны быть написаны синим цветом + жирный шрифт.
Я никак определиться не могу, как мне код "разукрасить".
Почему ФТП-клиентами муторно? Я не знаю, как еще. всегда пользовался Total Commander.
1. Залил скрипт на сервер через FTP-менеджер.
2. Запустил, не работает.
3. Что-то подправил.
4. Снова залил скрипт на сервер через FTP-менеджер...
И так может быть over 9000, пока мелкий сволочной баг не найдёшь.
Это же пипец, как муторно.
Есть ли какая-нибудь софтина, плагин для чего-нибудь или ещё что, чтобы я мог работать напрямую с документами на удалённом сервере.
Например, вставил документ в редактор прямо с удалённого сервера. Там подправил кое-что, ctrl+s, и редактор сам обновляет документ на удалённом сервере.
Не хочется пользоваться верхней (1,2,3,4) схемой. Или всё таки придётся?
1. IDE
2. Framework
3. Debugger
4. Шаблонизатор
5. Программа для работы с БД
6. Firefox+firebug
7. SVN
А допустим, я создал проект, хочу его протестить на рабочем сервере, а не на локальном.
Какими средствами это удобно делать?
Пользоваться FTP-клиентами довольно муторно даже на маленьких скриптах, а на больших вообще адЪ&погибелЬ.
И ещё такой вопрос. Кто-нибудь пользуется системами контроля версий? Как оно? Я в одном подкасте слышал, что это здорово упрощает контроль над разработкой, даже для одного человека.
Итак:
1. IDE
2. Framework
3. Debugger
4. Шаблонизатор
5. Программа для работы с БД
6. Firefox+firebug
Я решил реализовать проект в сети и заодно набраться нужных знаний.
Мне хочется знать, что можно использовать, чтобы максимально упростить разработку проекта. Т.е., чтобы не было ситуации в которой я на пол пути вдруг узнаю о какой-то полезной технологии, которая могла бы сэкономить мне кучу времени. Какой софт необходим для максимально продуктивной разработки, начиная с ОС заканчивая разнообразными мелкими утилитами?
Кто поднимал свой проект с нуля, что вы использовали? Какие технологии? Какой именно проект это был\есть?
И да, какие есть причины юзать Линукс, а не Винду?
С Линуксом я вообще практически не знаком, так что лучше объяснить в общих чертах.
Желательно, на все поставленные выше вопросы, отвечать максимально подробно
Браузер окромя get-запроса отправляет еще и другие заголовки: название юзер-агента, куки и прочее. Чтобы не было таких камней как вы описали в скрипте, необходимо имитировать работу человека в браузере. Т.е. отправлять соответствующие заголовки, а также добавить между запросами sleep().
В заголовках разница по-большому счёту только в поле "HTTP_HOST".
sleep() пробовал, но у яндекса видима защита считает количество запросов в час. Ботов ведь настроить можно X)
Попробую-ка снова в заголовках покапаться...
-------------
Вдогонку.
Как менять отправляемые заголовки через curl?
User-agent и Referer понятно, а другие можно?
Попробуйте через строку браузера делать запросы с такой же частотой.
Пробовал. Тоже через какое-то время выдаётся каптча. Я её ввожу и некоторое время всё работает нормально.
Uchkuma пишет:
У меня, бывало, Яша выводил капчу и из браузера и независимо от частоты запросов, когда в строке запроса у меня фигурировал фрагмент кода ActionScript. Вот такой он осторожный.
У меня строка урл в курле имеет такой вид "http://yandex.ru/yandsearch?text=%E7%E0%EF%F0%EE%F1&lr=171".
Задам наводящие вопросы, на всякий случай. Как curl запрос отличается от запроса напрямую из браузера?
Как curl-запрос сделать аналогичным запросу напрямую через адресную строку браузера?
Мне именно интересно, почему, когда через курл у меня выдаётся каптча, то через адресную строку браузера всё ок?
Ситуация в целом. Я делаю запросы через курл, получаю страницы, записываю их в файл и потом считываю из оттуда и вывожу в браузер.
Первые минут 15-20 всё работает нормально, но потом яндекс выдаёт каптчу.
Если сделать запрос напрямую через строку браузера, каптчи нет, выдаётся результат.
Если переподключить интернет, снова можно работать 15-20 мин, пока каптча снова не появится.
Почему яндекс выдаёт каптчу через curl/file_get_contents(), а через строку браузера всё ок?