Как это делается
В этом примере мы считаем все данные, которые пользователь передает через стандартный поток ввода и которые, скажем, могут оказаться текстовым файлом. Мы разобьем полученный текст на слова, чтобы определить частоту встречаемости каждого слова.
1. Как обычно, включим все заголовочные файлы для тех структур данных, которые планируем использовать:
#include <iostream>
#include <map>
#include <vector>
#include <algorithm>
#include <iomanip>
2. Чтобы сэкономить немного времени на наборе, объявляем об использовании пространства имен std
:
using namespace std;
3. Задействуем одну вспомогательную функцию, с помощью которой будем обрезать прикрепившиеся знаки препинания (например, запятые, точки и двоеточия):
string filter_punctuation(const string &s)
{
const char *forbidden {".,:; "};
const auto idx_start (s.find_first_not_of(forbidden));
const auto idx_end (s.find_last_not_of(forbidden));
return s.substr(idx_start, idx_end - idx_start + 1);
}
4. Теперь начнем писать саму программу. Создадим ассоциативный массив, в котором будут связаны каждое встреченное нами слово и счетчик, показывающий, насколько часто это слово встречается. Дополнительно введем переменную, которая будет содержать величину самого длинного встреченного нами слова, чтобы в конце работы программы перед выводом на экран мы могли красиво выровнять полученную таблицу:
int main()
{
map<string, size_t> words;
int max_word_len {0};
5. Когда мы выполняем преобразование из std::cin
в переменную типа std::string
, поток ввода обрезает лишние пробельные символы. Таким образом мы получаем входные данные слово за словом:
string s;
while (cin >> s) {
6. Текущее слово может содержать запятые, точки или двоеточие, поскольку может находиться в середине или в конце предложения. Избавимся от этих знаков с помощью вспомогательной функции, которую определили ранее:
auto filtered (filter_punctuation(s));
7. В том случае, если текущее слово оказалось самым длинным из всех встреченных нами, обновляем переменную max_word_len
:
max_word_len = max<int>(max_word_len, filtered.length());
8. Теперь увеличим значение счетчика в нашем ассоциативном массиве words
. Если слово встречается в первый раз, то оно неявно добавляется в массив перед выполнением операции инкремента:
++words[filtered];
}
9. После завершения цикла мы знаем, что сохранили все уникальные слова из потока ввода в ассоциативный массив words
вместе со счетчиками, указывающими на частоту встречаемости каждого слова. Ассоциативный массив использует слова в качестве ключей, они отсортированы в алфавитном порядке. Нужно вывести все слова, отсортировав их по частоте встречаемости, чтобы наиболее частые слова были первыми. Для данной цели создадим вектор нужного размера, куда поместим все эти пары:
vector<pair<string, size_t>>
word_counts;
word_counts.reserve(words.size());
move(begin(words), end(words), back_inserter(word_counts));
10. Теперь вектор содержит все пары «слово — частота» в том же порядке, в каком они находились в ассоциативном массиве words
. Далее отсортируем его снова, чтобы наиболее частые слова оказались в начале, а самые редкие — в конце:
sort(begin(word_counts), end(word_counts),
[](const auto &a, const auto &b) {
return a.second > b.second;
}
);
11. Все данные выстроены в нужном порядке, поэтому отправим их на консоль. Используя манипулятор потока std::setw
, красиво отформатируем данные с помощью отступов так, чтобы они были похожи на таблицу:
cout << "# " << setw(max_word_len) << "<WORD>" << " #<COUNT>\n";
for (const auto & [word, count] : word_counts) {
cout << setw(max_word_len + 2) << word << " #"
<< count << '\n';
}
}
12. После компиляции программы можно обработать любой текстовый файл и получить для него таблицу частоты встречаемости слов:
$ cat lorem_ipsum.txt | ./word_frequency_counter
# <WORD> #<COUNT>
et #574
dolor #302