Ставлю php5-fpm на Debian 7 через apt-get и он ставится без файла php5-fpm.sock и без файла с логами. Это вообще как? Первый раз такое... Несколько раз переустанавливал ОС и ставил заново. Ставил тысячу раз и никогда такого не было.
Подскажите статью или слова для корректного загугливания о реализации скроллинга как в яндекс картах или гугл картах. То есть блок, который скроллится путем клика и перетягивания мышкий внутри блока. Пытался гуглить разные варианты и ничего близкого к этому нет.
Может есть у кого ссылки или вообще подсказки по реализации такого скроллинга?
Гуглил, но не нашел подходящего решения. Существует ли в *nix утилита, позволяющая, как cURL, сохранять уже обработанный HTML после JS?
Получить через cURL статичный HTML отданный сервером - не проблема. Но любые результаты работы того же Ajax мы не получим.
Сохранение через обычный браузер - не вариант, т.к. слишком много ручной работы. Хочется программу, которую можно подключить к грабберу и она займется этим делом.
Однако если сделать запрос повторно, то он выдаст опять 1000 строк уже со смещением, т.е. я имею в виду: запрос такой же, в таблицу строки не добавлялись, но несколько строк будут другими, т.е. как будто offset чуть изменился, но он такой же.
Попробывал упорядочить, добавив "ORDER BY datetime ASC ", но строки по-прежнему немножко разные. В чем дело? Как решить?
Подскажите, как можно убрать из текста внезапно оказывающиеся символы � и др. После перекодировки некоторые символы остаются вот такими кракозябрами.
Как можно их удалить из большого текста ( не с помощью программ, а через php). Preg_replace с указанием только букв, цифр и пробелов - не пройдет. Т.к. в тексте встречается такое:   и другие.
Здравствуйте, пришла в голову идея объединить многочисленные запросы в один, для экономии времени загрузки страницы. Я попробывал следующую конструкцию (см. ниже). В логах прописывается, что запросы выполняются и строки возвращаются. Но в PHP эти значения не получается получить.
Как то можно объединить эти несколько запросов, чтобы они разом отправлялись в БД? БД на др сервере и каждый такой отдельный запрос съедает кучу времени.
INSERTы или UPDAT'ы подобной группой выполняются хорошо, но SELECT - нет.
Дайте уточню на всякий случай, под партицированием вы имеете ввиду штатное постгресовое партицирование? http://www[dot]postgresql[dot]org/docs/9[dot][dot][dot]artitioning[dot]html
Почему запрос будет в 10 таблиц? Планоровщик запросов, конечно, тупой, но пинать только разделы, в которых эти данные и находятся - догадается.
Да, поэтому я интересуюсь, что будет быстрей - 10 строк в одной огромной таблице или 10 строк в 10 таблицах)
[если я правильно понимаю его работу] (Добавление)
vanicon пишет:
hbase тоже раньше смотрел, но документации на русском не нашел, и бросил...
Документация на англ и мало, и сухо. При малейшей проблеме - помощи искать негде.
За 2013 доберется до 1 млрд. В нем много различных каталогов, предназначен для анализа данных в компаниях.
antobra
Думаю при таком объеме данных, нужно будет масштабировать бд по нескольким серверам, поэтому смотрите сами есть ли инструменты для этого у PostgreSQL, не знаю не юзал...
Или если нужно тока по ключу выбирать, то можно рассмотреть вариант nosql, есть не большой опыт с mongodb по ключу хорошо ищет, да и из коробки шардинг имеется, но учтите что и оперативку она жрет тоже не мало...
По nosql:
Я смотрел hbase и mongodb, остальные не приглянулись.
Тесты mongodb показывают, что в скорости я не сильно выиграю. Гугл выдают много сравнений и замеров.
hbase - более масштабна и серьезна, но я даже не смог ее настроить, плюс разработчики мэйл.ру писали, что при больших объемах она ведет себя не адекватно и даже платная поддержка не могла ничего объяснить (на хабре писали). И они допиливали hbase сами :/
Прошу поделиться вашим мнением о том, что будет лучше:
Дано: сейчас 1 таблица имеет 300 млн строк. И в дальнейшем будет увеличиваться в десятки раз (до 2-3 млрд).
База PostgreSQL. Запросы осуществляются только по ключу (id), никаких других выборок и сортировок нет. В одном запросе необходимо только 10 строк.
Вопрос: Что будет работать быстрее?
1. Оставить все как есть. Т.е. запрос пробегает по 1 таблице и отбирает 10 результатов по столбцу ID. Не представляю, как это будет происходить с млрд строк... :|
2. Партицировать. Например, грубо, на 300 таблиц по 1 млн. По логике запрос будет направляться сразу в нужные таблицы и скорость выдачи должна увеличиться. Но, запрос будет происходить сразу в 10 таблиц, а не в 1, что должно увеличить время выдачи. При этом, это отдельный сервер БД и соответственно прибавляется время на прохождение запроса от 1 сервера к другому.
Возможно у кого-то было похожее, что показал опыт?
Ну и координальный вариант
3. Использовать базу ключ-значение, которые больше подходят к моей задаче. Но ничего проверенного и хорошо поддерживаемого найти не смог. hbase? mongodb?
Первый запрос в базу - проходит и возвращается ответ. Второй в точности такой же запрос возвращает ошибку. В логах пишет "role www-data does not exist". Но дело в том, что в параметрах соединения логин postgres и вообще нет www-data.
Как решить? Я бы добавил роль www-data, но первый запрос то проходит. Дилемма.
Есть строка: 'Hello | World | Lala | Php | ' и тд со множеством слов, разделенных через |
Необходимо вычленить допустим 10е слово между знаками |
Как это реализовать?
Мне приходит только
$array = explode ( ' | ', $str );
echo $array(9);
Но там строка большая и разбивать ее всю в массив, когда необходимо только одно слово - не совсем логично. Но других вариантов я не вижу. Что вы думаете?