如何使用Map器在我的reducer中进行概率聚合;
我尝试在hadoop上实现“条带”方法和“成对”方法来完成以下任务,但是我想知道如何在多个Map器之间进行通信,以及如何在我的reducer中进行面向概率的聚合。
每对项目的共现,count(a,b)=#事务同时包含a和b,条件概率prob(b | a)=count(a,b)/count(a)。
每三项的共现,count(a,b,c)=#事务同时包含a和b,条件概率prob(a | b,c)=count(a,b,c)/count(b,c)
每行记录一个事务(一起购买的一组项目):输入数据集是具有以下格式的事务数据:
25 52 164 240 274 328 368 448 538 561 630 687 730 775 825 834 39 120 124 205 401 581 704 814 825 834 35 249 674 712 733 759 854 950 39 422 449 704 825 857 895 937 954 964 15 229 262 283 294 352 381 708 738 766 853 883 966 978 26 104 143 320 569 620 798 7 185 214 350 529 658 682 782 809 849 883 947 970 979 227 390 71 192 208 272 279 280 300 333 496 529 530 597 618 674 675 720 855 914 932 =======================================================================================**
1条答案
按热度按时间v9tzhpje1#
你的问题的简单答案是你不直接在Map绘制者之间交流。。。这与map-reduce计算模式背道而驰。相反,您需要构造您的算法,以便map阶段输出的键值可以被reducer阶段以智能的方式使用和聚合。
从你在这个问题上的背景资料可以清楚地看出,计算你感兴趣的条件概率实际上只是一个计算的练习。这里通常的模式是在一个map reduce过程中进行所有计数,然后获取这些输出并在之后划分适当的数量(尝试将它们放入map reduce过程会增加不必要的复杂性)
实际上,您只需要一个数据结构来跟踪您要计算的内容。如果速度是必须的,您可以使用一组具有隐式索引的数组来实现这一点,但是用单个hashmap来进行说明是很简单的。因为我们不感兴趣
python中用于hadoop流的Map程序代码
现在,reducer的代码与所有如此丰富的字数计算示例相同。这里可以找到一个带有map reduce流的python代码示例。map reduce程序的输出将是一行,其中的键描述已计数的内容以及每个项目的出现次数,以及所有对的键和出现次数,从那里您可以编写一个程序来计算您感兴趣的条件概率。