HDFS等分布式文件系统真的会存储数据吗?
1个回答
关注
展开全部
亲,您好, hdfs是一个分布式文件系统,可以将海量的数据存储在不同的机器中,解决了单台机器无法存储超大数据的问题. 希望我的解答对您有所帮助啦, 最后再次祝您身体健康,心情愉快! 要是我的解答对您有所帮助,还请给个赞(在左下角进行评价哦),期待您的赞,您的举手之劳对我很重要,您的支持也是我进步的动力。最后再次祝您身体健康,心情愉快!
咨询记录 · 回答于2022-12-03
HDFS等分布式文件系统真的会存储数据吗?
亲,您好, hdfs是一个分布式文件系统,可以将海量的数据存储在不同的机器中,解决了单台机器无法存储超大数据的问题. 希望我的解答对您有所帮助啦, 最后再次祝您身体健康,心情愉快! 要是我的解答对您有所帮助,还请给个赞(在左下角进行评价哦),期待您的赞,您的举手之劳对我很重要,您的支持也是我进步的动力。最后再次祝您身体健康,心情愉快!
会永久保存吗?
亲,您好,然而外部储存器它的数据都不能够永久保存,短则十几年,长则几十年,过了时限通通损坏,或者说是通通丢失。 外部储存器就比如说像硬盘,磁盘这一类的。 希望我的解答对您有所帮助啦, 最后再次祝您身体健康,心情愉快!
hdfs是采用的外部存储器?
亲,您好,hdfs储存原理如下: 1、客户端通过调用FileSystem对象的open括号来读取希望打开的文件。对于HDFS来说,这个对象是分布式文件系统的一个实例。 2、DistributedFileSystem通过RPC来调用namenode,以确定文件的开头部分的块位置。对于每一块,namenode返回具有该块副本的datanode地址。此外,这些datanode根据他们与client的距离来排序(根据网络集群的拓扑)。如果该client本身就是一个datanode,便从本地datanode中读取。DistributedFileSystem返回一个FSDataInputStream对象给client读取数据,FSDataInputStream转而包装了一个DFSInputStream对象。 3、接着client对这个输入流调用read()。存储着文件开头部分的块的数据节点的地址DFSInputStream随即与这些块最近的datanode相连接。 4、通过在数据流中反复调用read(),数据会从datanode返回client。 5、到达块的末端时,DFSInputStream会关闭与datanode间的联系,然后为下一个块找到最佳的datanode。client端只需要读取一个连续的流,这些对于client来说都是透明的。 6、在读取的时候,如果client与datanode通信时遇到一个错误,那么它就会去尝试对这个块来说下一个最近的块。它也会记住那个故障节点的datanode,以保证不会再对之后的块进行徒劳无益的尝试。 client也会确认datanode发来的数据的校验和。如果发现一个损坏的块,它就会在client试图从别的datanode中读取一个块的副本之前报告给namenode。 7、这个设计的一个重点是,client直接联系datanode去检索数据,并被namenode指引到块中最好的datanode。因为数据流在此集群中是在所有datanode分散进行的。 希望我的解答对您有所帮助啦, 最后再次祝您身体健康,心情愉快!
hdfs保存的数据会一直存在吗?
谢谢
linux中每一个命令其实都是对应程序的执行结果,那HDFS命令对应的程序具体在哪些文件中定义呢?
亲,您好, HDFS 文件操作有两种方式:一种是命令行方式,Hadoop 提供了一套与 Linux 文件命令类似的命令行工具;另一种是 JavaAPI,即利用 Hadoop 的 Java 库,采用编程的方式操作 HDFS 的文件。 希望我的解答对您有所帮助啦, 最后再次祝您身体健康,心情愉快! 要是我的解答对您有所帮助,还请给个赞(在左下角进行评价哦),期待您的赞,您的举手之劳对我很重要,您的支持也是我进步的动力。最后再次祝您身体健康,心情愉快!
已赞过
评论
收起
你对这个回答的评价是?