Здравствуйте,
я пишу скрипт, который позволяет обрабатывать серверные логи и выполнять различные виды поиска и выборки по ним через sql.
Проблема в том, что один файл лога весит 100мб, а таких файлов может быть гораздо больше.
Задала set_time_limit(0), это позволило файлу пропарситься и записаться в БД, но выскочила ошибка при переименовывании. Когда тестировала на маленьких файликах, ошибки не было.
Собственно вопрос таков, как оптимизировать или может как-то разбить скрипт, чтобы он мог обрабатывать большие файлы?
*на пхп совсем недолго, поэтому могу невнятно формулировать вопросы, но с готовностью прислушаюсь, расскажу-покажу*
|