import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.apache.log4j.BasicConfigurator;
import org.junit.Before;
import org.junit.Test;
public class hdfs_api {
public static void main(String[] args) throws Exception {
BasicConfigurator.configure();
// 上传一个文件
Configuration conf = new Configuration();
conf.set("dfs.replication", "1");
conf.set("dfs.blocksize", "64m");
FileSystem fs = FileSystem.get(new URI("hdfs://10.112.1.71:9000/"), conf, "root");
fs.copyFromLocalFile(new Path("D:/Tmp/test/1.txt"), new Path("/"));
fs.close();
}
FileSystem fs = null;
@Before // 单元测试执行前的代码
public void init() throws Exception {
Configuration conf = new Configuration();
conf.set("dfs.replication", "1");
conf.set("dfs.blocksize", "64m");
fs = FileSystem.get(new URI("hdfs://10.112.1.71:9000/"), conf, "root");
}
// 在HDFS中新建文件夹
@Test
public void testMkdir() throws Exception {
fs.mkdirs(new Path("/home/xie"));
fs.close();
}
// 从HDFS下载一个文件
@Test // 一个单元测试
public void testGet() throws Exception{
fs.copyToLocalFile(new Path("/1.txt"), new Path("d:/Tmp/down.txt"));
fs.close();
}
// 从HDFS一个文件
@Test
public void testdelete() throws Exception{
boolean del = fs.delete(new Path("/1.txt"),true);
fs.close();
}
// 从HDFS读取文件
@Test
public void cat()throws Exception{
FSDataInputStream cat = fs.open(new Path("/1.txt"));
IOUtils.copyBytes(cat,System.out,1024);
cat.close();
}
}
大数据之:HDFS_API
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- Below are 2 approaches to access HDFS data: HDFS cil comm...