Vladimir Kheifets очередная хрень размазанная на 5 страниц?
то есть тс будет свой исходник скриптом править? ой дураак
к тому же что если например в исходнике появится символ µ - \xc2\xb5 ?
kafka_row_delimiter – символ-разделитель записей (строк), которым завершается сообщение.
kafka_schema – опциональный параметр, необходимый, если используется формат, требующий определения схемы. Например, Cap’n Proto требует путь к файлу со схемой и название корневого объекта schema.capnp:Message.
kafka_num_consumers – количество потребителей (consumer) на таблицу. По умолчанию: 1. Укажите больше потребителей, если пропускная способность одного потребителя недостаточна. Общее число потребителей не должно превышать количество партиций в топике, так как на одну партицию может быть назначено не более одного потребителя.
kafka_skip_broken_messages – максимальное количество некорректных сообщений в блоке. Если kafka_skip_broken_messages = N, то движок отбрасывает N сообщений Кафки, которые не получилось обработать. Одно сообщение в точности соответствует одной записи (строке). Значение по умолчанию – 0.
Vladimir Kheifets до 50 не может
давай я тебя плюсану, только пообещай не цитировать больше всей простыней пост на который отвечаешь))
хотябы в спойлер убирай если никак иначе)) (Добавление)
вместо кнопки "ответ" можно юзать кнопку "цитата", выделив строку на которую важно ответить
осталось понять зачем нужен именно ассоциативный массив? (Добавление) dotWizard на вот тебе на рассмотрение специальная субд для аналитики https://clickhouse[dot]tech/docs/ru/
При этом с с json данных будет формироваться график/графики в реальном времени и возможно собираться статистические данные.
это и есть аналитика в широком смысле
весь круг задач по сбору, хранению и отображению аналитической информации называется для краткости "делаю аналитику"
dotWizard пишет:
Хотя у меня уже мысля что проще все данные подгружать напрямую с json, только насколько возрастут проблемы при дальнейшем допиливании - большой вопрос.
Зато ты получишь время на изучение вопроса. Который еще не факт что возникнет с такими малыми объемами
365 - записей на весь год? да наручные часы тебе за пару веков данных обсчет сделают и циферблатом не моргнут (Добавление)
LIME пишет:
"делаю аналитику"
заметь - не "я работаю аналитиком" )) это разные вещи))
Vladimir Kheifets эти данные нужны для аналитики, то есть надо разбить на поля(date, all, plus, vozvr) и записать по датам в субд
для небольшого объема по записи в сутки пойдет и mysql
а вообще такое обычно в колоночные субд пишут, они миллионами записей пишут данные за сутки и могут выдавать агрегатные данные за годы(сумма, максимальное/минимальное, среднее) на такой объем за мгновения ока)
Сомневаюсь,что jquery и/или javascript будут работать с дефектным html-кодом.
еще как будут
вернее с html-кодом javascript(почему jquery выделен отдельно непонятно) вообще не работает
он работает с DOM-моделью построенной браузером
а там уж как парсер решит ее построить по невалидному тексту, такая она и будет
javascript-у фиолетово, он работает с валидным деревом уже после парсинга
а браузеры наперебой соревнуются - кто как ухитрится исправить ошибки валидности
эксперименты с XHTML не помогли
Vladimir Kheifets не ну ты серьезно?!!!
То есть сначала инициализируем ключ сессии пустым значением, а потом его наполняем?!!?
А зачем вообще тогда сессия?!!!
Разве это не получение данных сеанса?
Где мы получаем данные? Почему всегда пишем?
И еще хорошо бы явно удалять. Иначе накопится столько мусора...
Например у нас сейчас сессия живет 2 недели и продлевается автоматически. То есть мусор не чистится у постоянных юзеров вообще никогда
shum0531 а проще и не надо
Если придумалось и работает и проблемы не предвидится, пусть работает.
Простота в решении нужна не ради самой простоты, а чтоб не накосячить. В сложных решениях проще ошибиться.
Все сложные решения типа CQRS это по сути упрощения очень сложного к просто сложному.
Тут вроде норм решение.
Годится. (Добавление)
А еще есть готовые библы по парсингу стандартных форматов. Учел?