## Данные [Kaggle Bitcoin Historical Data](https://www.kaggle.com/datasets/mczielinski/bitcoin-historical-data) Исходные данные хранят информацию по каждой минуте. Чтобы увеличить объём данных для более наглядной демонстрации эффективности параллельных вычислений и вычислений на GPU, с помощью линейной интерполяции данные были преобразованы из данных о каждой минуте в данные о каждых 10 секундах, то есть объём данных увеличился в 6 раз. ``` python3 upsample.py -i ./data/data.csv -o ./data/data_10s.csv -s 10 ``` ## Задание Группируем данные по дням (Timestamp), за каждый день вычисляем среднюю цену (мат. ожидание по значениям Low и High), выводим в файл интервалы дат (начиная с начальной даты в наборе данных), за которые средняя дневная цена менялась не менее чем на 10% от даты начала интервала, вместе с минимальными и максимальными значениями Open и Close за все дни внутри интервала. ## Сборка Проект обязательно должен быть расположен в общей директории для всех узлов, например, в `/mnt/shared/supercomputers/build`. Перед запуском указать актуальный путь в `run.slurm`. ```sh make ``` ```sh make run ``` Обязательно должны быть запущены все 4 нода. Результат будет в out.txt.