diff --git a/README.md b/README.md index ca95ec3..d375f95 100644 --- a/README.md +++ b/README.md @@ -10,26 +10,6 @@ не менее чем на 10% от даты начала интервала, вместе с минимальными и максимальными значениями Open и Close за все дни внутри интервала. -## Параллельное чтение данных - -Нет смысла параллельно читать данные из NFS, так как в реальности файлы с данными -будут лежать только на NFS сервере. То есть другие узлы лишь отправляют сетевые запросы -на NFS сервер, который уже читает реальные данные с диска и лишь затем отправляет -их другим узлам. - -Чтобы этого избежать, нужно на всех машинах скопировать файлы с данными в их реальные -файловые системы. Например в папку `/data`. - -```sh -# На каждом узле создаем директорию /data -sudo mkdir /data -sudo chown $USER /data - -# Копируем данные -cd /mnt/shared/supercomputers/data -cp data.csv /data/ -``` - ## Сборка Проект обязательно должен быть расположен в общей директории для всех узлов, diff --git a/run.slurm b/run.slurm index 19d5a3f..9ff1a2a 100644 --- a/run.slurm +++ b/run.slurm @@ -7,7 +7,6 @@ # Путь к файлу данных (должен существовать на всех узлах) export DATA_PATH="/mnt/shared/supercomputers/data/data.csv" -# export DATA_PATH="/data/data.csv" # Доли данных для каждого ранка (сумма определяет пропорции) export DATA_READ_SHARES="10,14,18,22"