Клиентский вызов open() выполняет свои обычные действия:
1. Спрашивает администратор процессов: «К кому обратиться по поводу файла /nfs/home/rk/abc.txt
?»
2. Получает ответ от администратора процессов: «Поговори сначала с fs-cache
, а потом с fs-nfs
».
Обратите внимание, что здесь администратор процессов возвращает две четверки ND/PID/CHID/handle — одну для файловой системы fs-cach
e и одну для файловой системы fs-nfs
. Это критично.
Далее функция open() делает следующее:
1. Направляет сообщение файловой системе fs-cache
. «Я бы хотел открыть файл /nfs/home/rk/abc.txt
на чтение, пожалуйста.»
2. Получает ответ от файловой системы fs-cache
: «Сожалею, но я никогда о таком не слышала.»
Здесь становится ясно, что с администратором файловой системы fs-cache
клиентской функции open() не повезло. Файл не существует! Однако, вызов open() знает, что он получил список из двух четверок ND/PID/CHID/handle, и поэтому пробует второй вариант:
1. Направляет сообщение файловой системе fs-nfs
: «Я бы хотел открыть файл /nfs/home/rk/abc.txt
на чтение, пожалуйста.»
2. От файловой системы приходит ответ: «Запросто, никаких проблем!»
Теперь, после того как у функции open() есть EOK («никаких проблем»), она возвращает дескриптор файла. Все дальнейшие операции клиент выполняет непосредственно с администратором сетевой файловой системы fs-nfs
.
Имя пути разрешается только один раз — во время вызова функции open(). Это означает, что как только мы успешно открыли нужный администратор ресурса, все дальнейшие вызовы, работающие с дескрипторами файлов, будут идти через него.
Так когда же вступает в игру наша кеширующая файловая система fs-cache
? Ну, допустим, пользователь закончил считывание файла (файл теперь загружен в текстовый редактор). Когда файл понадобится сохранить, произойдет та же самая последовательность действий, но возникнет один любопытный поворот:
1. Сообщение администратору процессов: «С кем я должен переговорить насчет файла /nfs/home/rk/abc.txt
?»
2. Ответ администратора процессов: «Поговори сначала с fs-cache
, а затем с fs-nfs
».
3. Сообщение fs-cache
: «Мне хотелось бы открыть файл /nfs/home/rk/abc.txt
на запись, пожалуйста».
4. Ответ от fs-cache
: «Запросто, нет проблем».
Обратите внимание на то, что на 3 этапе мы открыли файл на запись, а не на чтение, как в первый раз. Поэтому не удивительно, что fs-cache
на этот раз разрешает эту операцию (этап 4).
Еще более интересные события происходят, когда мы повторно пытаемся прочитать этот файл:
1. Сообщение администратору процессов: «С кем я должен переговорить насчет файла /nfs/home/rk/abc.txt
?»
2. Ответ администратора процессов: «Поговори сначала с fs-cache
, а затем с fs-nfs
».
3. Сообщение fs-cache
: «Мне хотелось бы открыть файл /nfs/home/rk/abc.txt
на чтение, пожалуйста».
4. Ответ от fs-cache
: «Запросто, нет проблем».
Да-да, на этот раз fs-cache
обработала запрос на чтение!
Мы опустили несколько деталей, но для восприятия базовых идей они не так важны. Очевидно, кеширующая файловая система должна предусматривать некоторый способ отправки данных по сети на «реальный» носитель. Она также должна уметь перед отправкой данных клиенту проверять, не изменился ли файл (чтобы клиент не получил устаревшие данные). К тому же, кеширующая файловая система вполне могла бы сама обработать первый запрос на чтение, загрузив данные из сетевой файловой системы в свой кэш. И так далее.
Дабы не путать понятия, сделаем небольшой экскурс в терминологию. Основное различие между объединенной файловой системой (UFS) и объединенной точкой монтирования (UMP) заключается в том, что UFS ориентирована на файлы, а UMP — на точки монтирования. В вышеупомянутой кеширующей файловой системе у нас была UFS, потому что оба администратора могли получить доступ к файлу вне зависимости от глубины его размещения файла в дереве каталогов. Давайте для примера рассмотрим другой администратор ресурса (назовем его «foobar
»), отвечающий за путь «/nfs/other
». В UFS-системе процесс fs-cache
был бы способен кэшировать файлы и оттуда тоже, присоединившись к «/nfs
». В случае с UMP, что принято в QNX/Neutrino по умолчанию, поскольку там все основано на соответствии самого длинного префикса, запросы смог бы обрабатывать только администратор foobar
.
Резюме о клиенте
На этом с клиентом все. Перечислим ключевые моменты, которые следует запомнить:
• Клиент обычно налаживает связь с администратором ресурса с помощью вызова open() (или fopen()).
• После того как запрос клиента разрешился в конкретный администратор ресурса, мы его больше не меняем.
• Все дальнейшие клиентские сообщения в этом сеансе основываются на дескрипторах файлов (или FILE* stream
) — например, read(), lseek(), fgets(), и т.п.
• Сеанс прекращается, когда клиент закрывает дескриптор файла или поток (или завершается по какой-либо причине).
Все вызовы, основанные на дескрипторах файлов, транслируются в сообщения.
Взгляд со стороны администратора ресурсов
Давайте теперь посмотрим на вещи с позиции администратора ресурса. Перво-наперво администратор ресурса должен сообщить администратору процессов, что он берет на себя ответственность за некоторую часть пространства имен путей (то есть зарегистрироваться). Затем он должен принимать сообщения от клиентуры и их обрабатывать. Очевидно, не так тут все просто.
Давайте кратко рассмотрим функции, реализуемые администраторами ресурсов, а затем уже углубимся в детали.
Регистрация префикса
Администратор ресурса должен сообщить администратору процессов, что одно или более имя пути теперь является его доменом ответственности — иными словами, что он готов обрабатывать клиентские запросы, относящиеся к этим именам путей.
Администратор последовательного порта способен обрабатывать (допустим, так) четыре последовательных порта. В этом случае он должен зарегистрировать у администратора процесса четыре различных имени пути: /dev/ser1
, /dev/ser2
, /dev/ser3
и /dev/ser4
. В результате этого в дереве имен путей у администратора процессов появятся еще четыре элемента, по одному на каждый из последовательных портов. Четыре элемента — это неплохо. А что если бы администратор последовательного порта обрабатывал, например, новомодную мультипортовую плату на 256 портов? Регистрация 256 отдельных префиксов (то есть от /dev/ser1
до /dev/ser256
) привела бы к появлению в дереве имен путей администратора процессов 256 различных элементов! Администратор процессов не оптимизирован для поиска по этому дереву — он предполагает, что элементы в нем, конечно, есть, но не сотни же там этих элементов.