当前位置: 首页 > news >正文

网上有专业的做网站吗推广普通话手抄报内容大全资料

网上有专业的做网站吗,推广普通话手抄报内容大全资料,广东省网上注册公司流程,哪些网站做物流推广比较好MapTask工作机制 MapReduce中的Map任务是整个计算过程的第一阶段,其主要工作是将输入数据分片并进行处理,生成中间键值对,为后续的Shuffle和Sort阶段做准备。 1. 输入数据的划分: 输入数据通常存储在分布式文件系统(…

MapTask工作机制

MapReduce中的Map任务是整个计算过程的第一阶段,其主要工作是将输入数据分片并进行处理,生成中间键值对,为后续的Shuffle和Sort阶段做准备。


1. 输入数据的划分:

  • 输入数据通常存储在分布式文件系统(如HDFS)中,InputFormat负责将输入数据划分成若干个InputSplit,每个InputSplit对应一个Mapper任务的输入
  • 输入数据被划分成多个InputSplit的目的是为了充分利用集群中的计算资源,并实现数据的并行处理。

2. Map任务的启动:

  • 一旦MapReduce作业被提交,Master节点(JobTracker)会将Map任务分配给空闲的Map任务槽(Task Slot)。
  • 每个Map任务槽都运行在集群中的某个节点上,并且能够处理一个或多个Mapper任务。

3. Mapper的初始化:

  • Map任务被分配到一个节点上时,该节点会启动一个Mapper实例。
  • Mapper实例会首先执行初始化操作,包括获取输入数据的位置信息、加载用户自定义的Map函数等。

4. 数据处理:

  • Mapper开始处理其对应的InputSplit中的数据。
  • 对于每个输入记录,Mapper会调用用户定义的Map函数,该函数将输入记录转换成若干个中间键值对(key-value pairs)。
  • 这些中间键值对通常表示了对输入数据的处理结果,比如单词计数问题中,键可以是单词,值可以是该单词出现的次数。

Map任务中,为了提高处理速度和效率,通常会采取一些数据处理优化策略,比如:

  • 数据局部性优化:尽可能在处理数据时减少网络通信开销,使得处理同一输入分片的数据的Mapper任务能够在同一个节点上执行,以减少数据的传输成本

  • 流水线处理Map任务可以通过流水线处理来提高吞吐量,即在处理一个输入记录的同时,可以开始处理下一个输入记录,从而减少处理过程中的等待时间


5. 中间结果的缓存:

Map任务通常会将中间结果缓存在内存中,但如果缓存空间不足以存储所有的中间结果时,会采取一些策略来管理缓存,例如

  • 溢出到磁盘:当内存中的中间结果达到一定阈值时(比如默认的80%),Map任务会将部分中间结果写入磁盘的临时文件中,以释放内存空间,从而继续处理新的输入记录。

  • 内存管理算法:Map任务可能采用LRU(最近最少使用)等算法来管理内存中的中间结果,保留最常使用的数据,释放不常用的数据。

    在 Map 阶段完成后,中间结果会被写入本地磁盘,但在写入之前,通常会进行本地排序操作

  • 本地排序可以确保相同 key 的数据在同一个位置,以便后续的 Shuffle 阶段更高效地进行数据传输和处理。

  • 在必要时,还可以对数据进行合并和压缩操作,以减少存储空间和提高数据传输效率。这些步骤都是为了优化整个 MapReduce 作业的性能和效率。


6. 任务状态更新:

  • Map任务执行期间,Master节点会周期性地接收来自Map任务的心跳信息,以报告任务的运行状态,并定期更新任务进度

  • 如果Map任务长时间没有发送心跳信息,Master节点可能会将其标记为失败,并重新分配任务给其他节点执行。

  • Map任务在执行完所有的输入记录后,会向Master节点报告任务完成,并将生成的中间结果的位置信息发送给Master

  • MapReduce框架具有强大的容错机制,即使Map任务在执行过程中出现失败,Master节点也能够重新分配任务并继续执行,以确保作业的顺利完成


7. Map任务的结束:

  • 所有数据处理完成后,MapTask 对所有临时文件进行一次合并,以确保最终只会生成一个数据文件。

  • 当所有数据处理完后,MapTask 会将所有临时文件合并成一个大文件,并保存到文件output/file.out 中,同时生成相应的索引文件output/file.out.index。

  • 在进行文件合并过程中,MapTask以分区为单位进行合并。对于某个分区,它将采用多轮递归合并的方式。每轮合并mapreduce.task.io.sort.factor(默认 10)个文件,并将产生的文件重新加入待合并列表中,对文件排序后,重复以上过程,直到最终得到一个大文件。

  • 让每个 MapTask 最终只生成一个数据文件,可避免同时打开大量文件和同时读取大量小文件产生的随机读取带来的开销。

  • 一旦所有的输入记录都被处理完毕,并且中间结果都被写入磁盘,Map任务就会结束。

  • Map任务会将最终的中间结果的位置信息发送给Master节点,以便后续的ShuffleSort阶段能够获取到这些数据。


8.示例

假设我们有一个大的文本文件,其中包含了多篇文章,每篇文章之间由一个或多个空行分隔。Map任务的目标是将输入数据中的每个单词映射成键值对(单词, 1),以便后续的Reduce任务可以统计每个单词的频次。


(1) 输入数据的划分

  • Hadoop中,这个文本文件被分成若干个逻辑块(block),每个逻辑块会被存储在HDFS的不同节点上。当我们提交MapReduce作业时,Hadoop会将这些逻辑块划分成若干个InputSplit,每个InputSplit对应一个Mapper任务的输入。

(2) Map任务的启动

  • 一旦MapReduce作业被提交,Master节点会启动作业的第一个阶段,即Map阶段。Master节点会根据集群中的可用资源情况,将Map任务分配给空闲的节点上的Map任务槽。

(3) Mapper的初始化

  • 每个Mapper任务在运行之前都需要进行初始化。这个初始化过程包括获取对应的InputSplit的数据位置信息、加载用户自定义的Map函数等

  • 在我们的例子中,Map函数需要额外的逻辑来识别文章的标题。


(4) 数据处理

  • Mapper开始处理其对应的InputSplit中的数据。对于每个InputSplitMapper会逐行读取数据。
  • 在我们的例子中,Mapper会识别每篇文章的标题,并为每篇文章的每个单词生成键值对。对于每个键值对,键是单词,值是1,表示该单词在文章中出现了一次。

(5) 中间结果的缓存

  • Mapper会将生成的中间键值对缓存在内存中。当内存中的数据达到一定阈值时,部分结果会被写入磁盘的临时文件中以释放内存空间。
  • 在我们的例子中,中间结果包括文章标题和单词出现次数的键值对。

(6)任务状态更新

  • Map任务执行期间,Mapper会定期向Master节点发送心跳信息,以报告任务的运行状态和进度。Master节点会根据这些信息来监控任务的执行情况,并在必要时重新分配任务。

(7) Map任务的结束

  • Mapper处理完其对应的InputSplit中的所有数据,并且中间结果都被写入磁盘后,Map任务结束。
  • Mapper会将最终的中间结果的位置信息发送给Master节点,以便后续的ShuffleSort阶段能够获取到这些数据。

通过Map任务的执行,我们得到了每篇文章中单词的频次统计结果,并且识别出了每篇文章的标题。这些中间结果将被用于后续的Shuffle和Sort阶段,最终得到我们想要的每篇文章中单词的频次统计结果。

http://www.khdw.cn/news/35215.html

相关文章:

  • 做网站都可以用什么框架网站seo推广公司靠谱吗
  • 做网站最简单的工具百度直接打开
  • wordpress应用商店seo教程自学
  • 小工程承包网app荥阳网站优化公司
  • 廊坊北京网站建设semantics
  • 空间排版设计网站网站关键词优化建议
  • 直销管理系统湛江seo推广外包
  • 网站内容更新用什么安卓系统优化大师
  • 多种东莞微信网站建设网站推广app
  • 郑州做网站最好的公司培训班招生方案
  • 手机网站建站系统做app的网站
  • 国外做灯的网站夫唯seo教程
  • 梅州兴宁网站建设优化网站内容
  • 做网站要自己租服务器艾滋病多久能检查出来
  • 企业做网站的流程seo是搜索引擎优化
  • 网站转移空间以后ip会变化吗易推广
  • 网站原创文章在哪里找seo点击软件哪个好用
  • 玉环在哪里做网站营销推广有哪些公司
  • 上海微网站制作设计制作神马关键词快速排名软件
  • 做任务反佣金的网站大数据智能营销
  • 天津建设工程信息网工程交易中心seo技术教学视频
  • 济南做html5网站免费网站统计工具
  • 请人做游戏的网站运用搜索引擎营销的案例
  • 哪里可以检测丙型肝炎病毒百度怎么优化网站排名
  • 官方网站建设的重要性最新新闻消息
  • 网站怎么制作视频教程百度资源搜索
  • 大良网站建设公司电脑培训机构哪个好
  • 四级a做爰片免费网站新手怎么引流推广
  • 响应式网站建设模板广州头条新闻最新
  • 电影网站怎么做关键词2022年国际十大新闻