当前位置: 首页 > news >正文

网站建设工作室需要哪些设备单页面网站多少钱

网站建设工作室需要哪些设备,单页面网站多少钱,山西物价局建设工程检测网站首页,公司做网站花销会计分录目录 文件传输步骤 windows的本机文件传输 linux的虚拟机文件传输 文件传输步骤 建立连接 在connect2HDFS()方法中#xff0c;通过设置Configuration对象来指定HDFS的URI#xff08;在这个例子中为hdfs://192.168.12.133:9000#xff09;#xff0c;并初始化一个FileSys…目录 文件传输步骤 windows的本机文件传输 linux的虚拟机文件传输 文件传输步骤 建立连接 在connect2HDFS()方法中通过设置Configuration对象来指定HDFS的URI在这个例子中为hdfs://192.168.12.133:9000并初始化一个FileSystem实例fs用于后续的所有HDFS操作。 关闭连接 close()方法用于在完成所有HDFS操作后关闭与HDFS的连接确保资源被正确释放。 上传文件并分类 (uploadAndClassify(File file)):方法接收一个本地文件作为参数。 将本地文件上传到HDFS上的相应目录中。 业务逻辑 该方法接受一个字符串类型的目录路径作为参数将其转换为Path对象并检查该路径是否已存在。如果不存在则创建新的目录。 主函数执行 首先调用connect2HDFS()方法与HDFS建立连接。指定一个本地目录在这个例子中是/home/covid_data然后遍历这个目录下的所有.json文件。对每个符合条件的文件调用uploadAndClassify(File file)方法进行处理。 package hdfs.demo;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.File; import java.io.IOException; import java.util.regex.Matcher; import java.util.regex.Pattern;public class HDFSApiDemo {private static FileSystem fs null;// 用于和HDFS建立连接public static void connect2HDFS() throws IOException {Configuration conf new Configuration();conf.set(fs.defaultFS,hdfs://192.168.12.133:9000);// 显式指定本地文件系统的实现类conf.set(fs.file.impl, org.apache.hadoop.fs.LocalFileSystem);System.out.println(111);fs FileSystem.get(conf);}// 关闭客户端和HDFS的连接public static void close(){if(fs ! null){try{fs.close();} catch (IOException e){e.printStackTrace();}}}/*** 上传文件并分类* param file* throws IOException*/public static void uploadAndClassify(File file) throws IOException {// 提取所有汉字作为省份名称Pattern pattern Pattern.compile(([\\p{IsHan}]).*\\.json);// 匹配所有汉字Matcher matcher pattern.matcher(file.getName());// 匹配汉字成功if (matcher.find()) {String province matcher.group(1); // 获取所有汉字组成的字符串String targetDir /covid_data/ province /; // 使用全部汉字作为目录名String fileName file.getName();System.out.println(Processing file: fileName);// 创建省份目录如果不存在mkdir(targetDir);// HDFS目的路径Path dst new Path(targetDir fileName);// 上传文件fs.copyFromLocalFile(new Path(file.getAbsolutePath()), dst);System.out.println(Uploaded: fileName to targetDir);} else {System.out.println(File does not match the expected pattern: file.getName());}}// 重载mkdir()方法支持String类型参数public static void mkdir(String dir) throws IOException {Path path new Path(dir);if (!fs.exists(path)) {fs.mkdirs(path); // 创建目录}}public static void main(String[] args) throws IOException {try {connect2HDFS();// 虚拟机上的本地目录File localDir new File(/home/covid_data);// 遍历目录下的所有文件for (File file : localDir.listFiles()) {if (file.isFile() file.getName().endsWith(.json)) {uploadAndClassify(file);}}close();} catch (IOException e) {e.printStackTrace();}}} windows的本机文件传输 对于上述代码只需要更改上传路径即可 遭遇问题1端口无法访问 // 第一步 cd /usr/local/hadoop安装路径 // 第二步  vi ./etc/hadoop/hdfs-site.xml // 第三步 加入下列配置 目的让NameNode监听所有网络接口上的9000端口 property     namedfs.namenode.rpc-bind-host/name     value0.0.0.0/value /property // 第四步 让配置生效     先关闭HDFS命令      ./sbin/stop-dfs.sh    在重启HDFS命令      ./sbin/start-dfs.sh 遭遇问题2用户权限不足 // 改变hadoop用户权限 这会将/data目录的权限设置为rwxrwxrwx允许所有用户读写执行 // hdfs dfs -chmod 777 /data linux的虚拟机文件传输 遭遇问题1无法找到主类 !--  添加maven-shade-plugin插件 --             plugin                 groupIdorg.apache.maven.plugins/groupId                 artifactIdmaven-shade-plugin/artifactId                 version3.2.4/version                 executions                     execution                         phasepackage/phase                         goals                             goalshade/goal                         /goals                         configuration                             transformers                                 transformer implementationorg.apache.maven.plugins.shade.resource.ManifestResourceTransformer                                     mainClasshdfs.demo.HDFSApiDemo/mainClass                                 /transformer                             /transformers                         /configuration                     /execution                 /executions             /plugin // 这段Maven配置的作用是使用maven-shade-plugin插件在打包阶段创建一个包含所有依赖的可执行JAR文件并指定hdfs.demo.HDFSApiDemo作为JAR文件的主类即包含main方法的入口类 遭遇问题1Hadoop尝试使用file:// URI方案时找不到对应的文件系统实现 // 显式指定本地文件系统的实现类 conf.set(fs.file.impl, org.apache.hadoop.fs.LocalFileSystem);
http://www.zqtcl.cn/news/194923/

相关文章:

  • 网站seo课设wordpress 500 根目录
  • 电子商务网站建设的阶段化分析如何利用视频网站做数字营销推广
  • 电子商务网站建设ppt模板国外注册机网站
  • 西部数码做跳转网站百度seo排名培训优化
  • 农业网站素材wordpress all in one
  • 学习网站建设有前景没wordpress 和dokuwiki
  • 服装网站开发方案网站设计美工排版编辑
  • 旅游网站首页模板下载广州市建设工程检测中心网站
  • 餐饮加盟网站建设wordpress 首行缩进
  • kkday是哪里做的网站橙云 php网站建设
  • 站长之家0网站规划作品
  • 物流公司网站建设系统规划广告设计怎么学
  • 异地备案 网站中信建设有限责任公司经济性质
  • 网站没有备案怎么申请广告宿迁莱布拉网站建设
  • 太原适合网站设计地址网站建设 教学视频教程
  • 建商城网站需要多少钱网站开发维护报价单
  • 唐山网站建设冀icp备婚纱网站页面设计
  • 做购物网站支付需要怎么做手机网站建设教程
  • 国外网站空间租用哪个好建站快车打电话
  • 自媒体网站 程序做药公司的网站前置审批
  • 简洁网站模板素材廊坊建设企业网站
  • 长沙建站找有为太极就治就网站内容如何自动关联新浪微博
  • 手机企业网站设计理念企业建设网站的步骤是什么?
  • 网站建设与管理视频网站推广的方法枫子
  • 苏州市住房和城乡建设局官方网站宠物之家网站开发
  • 建个人网站活字格能开发企业网站吗
  • php网站后台密码忘记做电子商务网站 语言
  • 网站建设策划师怎样进入国外网站
  • 建设银行商城网站浙江建站管理系统价格
  • 我想做个网站怎么做的常用的网络营销方法及效果