`
jishublog
  • 浏览: 868999 次
文章分类
社区版块
存档分类
最新评论

统计一个文档中出现频率最多的k个单词的实现

 
阅读更多

这个问题我们应该经常会见到,想写这个问题是因为微软面试中,面试官问了这问题,而且要写代码,尼玛,最可恨的是不准用容器,哥当时就跪了。。。<T-T>

这个问题就是最常见的topK问题,解决思路:首先统计文档中所有不同word出现的频率,然后对所有不同的word按照出现频率排序,取出出现频率最大的k个words。

1.统计文档中所有不同word出现的频率

统计文档中word的频率的方法,要根据文档的数据量来决定:

(1)如果文档中数据能够全部读入内存,那么可以通过map/hashmap来直接统计各个word出现的频率。之所以采用map/hashmap结构,是因为它们的查找,修改效率很高,map在对数级别,hashmap在常数级别。

(2)如果文档中的word的数据不足以全部读入内存甚至远远超过了内存的容量,那只能通过分治的思想来解决,其中对于大数据比较好的解决办法:将这个文档通过hash(word)%n,hash到n个不同的小文件中,n根据文档的大小以及内存空间而定,hash后,所有相同的word肯定会在同一个文件中,然后分别对这n个文件分别利用map/hashmap来统计其中word的频率,分别求出topk,最后进行合并求总的topk。

2.求topk

当所有不同word的频率求出来之后,就是如何求出topk的问题了,抛开前面的条件,topk问题有很多解法:

(1)最简单的方法,冒泡或选择排序,求出最大的k个元素,时间复杂度在O(kn);

(2)基于快排的选择排序,在随机化的情况下,时间复杂度在O(n);

(3)局部淘汰法1,取前k个元素,建立一个数组,然后遍历所有元素,依次与数组中最小的元素比较,若大于,则替换。这种方法时间复杂度为O(kn);

(4)局部淘汰法2,取前k个元素,维护一个小根堆,遍历所有元素,依次与堆顶元素进行比较,若大于,则替换并重新使其为小根堆,这种方法的时间复杂度为O(nlgk)

(3)和(4)的最大的好处在于只需遍历一边序列就可以得到topk的结果,效率是很高的,还有就是在无法将序列全部加载到内存中时,这两种方法是最好的选择。


这里我采用三种map结构:map, hash_map(VS2008),unordered_map,来实现问题1,unordered_map在c++11中已经正式成为STL的一部分,是底层采用hash实现的map,和各家的实现的hashmap(不在C++标准中)的机制是一样的。采用(4)来解决topk的问题,下面是实现代码:

#include <iostream>
#include <fstream>
#include <hash_map>
#include <map>
#include <string>
#include <boost/unordered_map.hpp>

using namespace std;
using namespace stdext;

typedef unsigned int size_t_32;

struct WordNode
{
    string word;
    int count;

    WordNode(const string &_word = "", int _count = 1) : word(_word), count(_count){}

    bool operator< (const WordNode & _word)
    {
        return (count < _word.count ? true : false);
    }

    bool operator> (const WordNode & _word)
    {
        return (count > _word.count ? true : false);
    }
};

template <typename Type>
void LittleRootHeapAdjust(Type *array, int low, int high)
{
    int j, k;
    Type temp;

    temp = array[low];
    k = low;

    for (j = low * 2 + 1; j <= high; j = j * 2 + 1)
    {
        if (j < high && array[j] > array[j + 1])
            j += 1;

        if (temp < array[j])
            break;

        array[k] = array[j];

        k = j;         
    }

    array[k] = temp;

}

template <typename Type>
void CreateLittleRootHeap(Type *array, int len)
{
    if (array == NULL ||  len <= 0)
    {
        return;
    }

    for (int i = len / 2 - 1; i >= 0; --i)
    {
        LittleRootHeapAdjust(array, i, len - 1);
    }

}

template <typename Type>
void LittleRootHeapSort(Type *array, int len)
{
    if (array == NULL ||  len <= 0)
    {
        return;
    }

    for (int i = len / 2 - 1; i >= 0; --i)
    {
        LittleRootHeapAdjust(array, i, len - 1);
    }

    Type exchange;
    for (int i = len - 1; i >= 0; --i)
    {
        exchange = array[i];
        array[i] = array[0];
        array[0] = exchange;

        LittleRootHeapAdjust(array, 0, i - 1);
    }

}

template <typename MapType>
int GetTopKWords(WordNode *wordNode, MapType &mapTable, int k)
{
    if (wordNode == NULL || k <= 0)
    {
        return -1;
    }

    MapType::const_iterator itr;

    //just sort the exist less k word, and return;
    if (mapTable.size() <= k)
    {
        int i = 0;
        itr = mapTable.begin();

        for ( ; itr != mapTable.end(); ++i, ++itr)
        {
            wordNode[i].word = itr->first;
            wordNode[i].count = itr->second;
        }

        LittleRootHeapSort(wordNode, k);

        return 0;
    }

    itr = mapTable.begin();

    for ( int i = 0; i < k; ++i, ++itr)
    {
        wordNode[i].word = itr->first;
        wordNode[i].count = itr->second;
    }

    //create a little root heap, make the heap root is the smallest element;
    CreateLittleRootHeap(wordNode, k);

    while (itr != mapTable.end())
    {
        if (itr->second > wordNode[0].count)
        {
            wordNode[0].word = itr->first;
            wordNode[0].count = itr->second;

            LittleRootHeapAdjust(wordNode, 0, k - 1);
        }

        ++itr;
    }

    LittleRootHeapSort(wordNode, k);

    return 0;

}

#include <mmstream.h>

#pragma comment(lib, "winmm.lib")

int main()
{
    hash_map<string, int> WordHashMap;

    ifstream readStream("Harry Potter.txt");//这里用哈利波特的小说做测试,小说中一共有100多万单词
    string word;

    unsigned long start = timeGetTime();    

    while (readStream>>word)
    {
        //cout<<word<<endl;
        ++WordHashMap[word];
    }
    
    cout<<"read file and build hashmap used time(ms):"<<timeGetTime() - start<<endl;
    start = timeGetTime();

    WordNode *top10 = new WordNode[10];
    GetTopKWords(top10, WordHashMap, 10);
    cout<<"traverse hashmap and heap sort used time(ms):"<<timeGetTime() - start<<endl;

    for (int i = 0; i < 10; ++i)
    {
        cout<<top10[i].word<<"  "<<top10[i].count<<endl;
    }

    cout<<endl<<"hash_map size:"<<WordHashMap.size()<<endl;

    //--------------------------------------------------------------------------------------------------------------

    map<string ,int> WordMap;

    readStream.clear();
    readStream.seekg(0, ios_base::beg);

    start = timeGetTime();

    while(readStream>>word)
    {
        //cout<<word<<endl;
        ++WordMap[word];
    }

    cout<<endl;
    cout<<"read file and build map used time(ms):"<<timeGetTime() - start<<endl;
    start = timeGetTime();

    GetTopKWords(top10, WordMap, 10);

    cout<<"traverse map and heap sort used time(ms):"<<timeGetTime() - start<<endl;

    for (int i = 0; i < 10; ++i)
    {
        cout<<top10[i].word<<"  "<<top10[i].count<<endl;
    }

    cout<<endl<<"map size:"<<WordMap.size()<<endl;

    //--------------------------------------------------------------------------------------------------------------

    boost::unordered_map<string ,int> WordUnorderedMap;

    readStream.clear();
    readStream.seekg(0, ios_base::beg);

    start = timeGetTime();

    while(readStream>>word)
    {
        //cout<<word<<endl;
        ++WordUnorderedMap[word];
    }

    cout<<endl;
    cout<<"read file and build unordered map used time(ms):"<<timeGetTime() - start<<endl;
    start = timeGetTime();

    GetTopKWords(top10, WordUnorderedMap, 10);

    cout<<"traverse unordered_map and heap sort used time(ms):"<<timeGetTime() - start<<endl;

    for (int i = 0; i < 10; ++i)
    {
        cout<<top10[i].word<<"  "<<top10[i].count<<endl;
    }

    cout<<endl<<"unordered_map size:"<<WordUnorderedMap.size()<<endl;

}
程序的运行结果如下:

由于数据量比较小,hash_map和map的效率差不多,但unordered_map的效率要高出很多,可能和unordered_map底层的hash函数的设计有很大关系。

STL中的高效能的容器很是值得我们学习的。。。

Jun 2, 2013 @library

分享到:
评论

相关推荐

    高中英语出现频率最多阅读课外单词(标准原版).doc

    高中英语出现频率最多阅读课外单词(标准原版).doc

    文本英文单词统计

    可以用简单的图形界面显示文本所有英文单词的数目,并可以查询固定单词的个数

    文章中单词出现次数统计代码

    这是自己弄得简单的文章单词出现次数统计,都是些很基础的知识,主要是文件IO的简单应用,在此基础上的很多功能还没去实现,对于简单的应用和练习,有一定的参考意义

    Python统计单词出现的次数

    最近经理交给我一项任务,统计一个文件中每个单词出现的次数,列出出现频率最多的5个单词。本文给大家带来了python 统计单词次数的思路解析,需要的朋友参考下吧

    统计中英文文章中汉字个数字频或单词个数词频.html

    1. 给出前100个汉字高频字的频率统计结果; 2. 分别给出前1、20、100、600、2000、3000汉字的字频总和; 3. 计算汉字的熵值;

    自考-00018+计算机应用基础.doc

    00018计算机应用基础复习资料 第一章 计算机基础知识 1、计算机应用中常见的缩写:CAD、CAM、CAI、AI、CIMS、MIS、DSS、ES、OA等。 2、计算机应用得最早、最成熟的领域:... 3、在一个Excel2000工作表中,最多可以有655

    自考-00018+计算机应用基础(1).doc

    00018计算机应用基础复习资料 第一章 计算机基础知识 1、计算机应用中常见的缩写:CAD、CAM、CAI、AI、CIMS、MIS、DSS、ES、OA等。 2、计算机应用得最早、最成熟的领域:... 3、在一个Excel2000工作表中,最多可以有65

    东师计算机应用基础17春在线作业3-1.docx

    从"程序"级联菜单中选择"Microsoft Excel"选项启动Excel 97之后,系统会自动建立一个空工作簿,名为( ) A. Book1 东师计算机应用基础17春在线作业3-1全文共6页,当前为第2页。东师计算机应用基础17春在线作业3-1...

    flash shiti

    10. 某电影中,只有一个layer1,其上放置一个有两个元件(test1 和test2)组合成的组合体, 选择这个组合体执行打散Ctrl+B,然后右键单击执行Distribute to layers,那末: □ A. 这个电影中将增加两个新层:layer2 ...

Global site tag (gtag.js) - Google Analytics