Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Otim memory #117

Open
wants to merge 2 commits into
base: master
Choose a base branch
from
Open

Conversation

pythoneyron
Copy link

No description provided.

Copy link
Collaborator

@spajic spajic left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Nice work! ✅

```sessions = sessions + [parse_session(line)] if cols[0] == 'session'```
В этом месте было выделено 1.8 Гб памяти
- Я внес самое главное изменение, это запись данных в потоке. Решил читать файл построчно и сохранять данные в правильном формате JSON по блочно.
- Вызов метода ```p "MEMORY USAGE: %d MB" % (`ps -o rss= -p #{Process.pid}`.to_i / 1024)``` показал потребление памяти в районе 57 Мб при обработке файла *data_large.txt*. Самый большой файл обрабатывается за 9 секунд
Copy link
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

9 секунд + константная память на любой объём данных == кайф

В этом месте было выделено 1.8 Гб памяти
- Я внес самое главное изменение, это запись данных в потоке. Решил читать файл построчно и сохранять данные в правильном формате JSON по блочно.
- Вызов метода ```p "MEMORY USAGE: %d MB" % (`ps -o rss= -p #{Process.pid}`.to_i / 1024)``` показал потребление памяти в районе 57 Мб при обработке файла *data_large.txt*. Самый большой файл обрабатывается за 9 секунд
- Теперь главная точка роста line.chomp.split(','). Так показывает MemoryProfiler, потому что он не дает объектам удаляться потому что профилирует данные. Но я не считаю это точкой роста, потому что без MemoryProfiler программа работает очень быстро и не потребляет память
Copy link
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Тут у вас возникла путаница.

MemoryProfiler показывает, что в этой строчке происходит большинство аллокаций, что правильно. В принципе, если их убрать (например, использовать split with block и не создавать постоянно новых строк, то у нас будет создаваться меньше объектов, потом GC не придётся их удалять, и программа будет работать несколько быстрее за счёт этого)

Но эта ситуация не ведёт к росту максимального потребления памяти, потому что эти тысячи строк, которые мы постоянно создаём спокойненько удаляются GC.

Но если у нас включен memory_profiler, то эти объекты могут и не удаляться, так как на них есть ссылки со стороны отчёта memory_profiler

Ещё раз в общем подчеркну, что надо разделять benchmarking (замер метрики) и profiling (поиск точки роста).

SAVE_TYPE = "a"
COMMON = ","
USER_STATS_STR = '{"usersStats":{'
USER_STATS_CLOSE = '}}'
Copy link
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

эти все строковые константы не обязательны так как есть #frozen_string_literal: true, и их можно с тем же успехом записать просто как строковые литералы

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

2 participants