耿瑞阳的博客


  • 首页

  • 标签

  • 分类

  • 归档

  • 关于

SpringBoot多模块项目Jsp页面404

发表于 2018-10-16

idea开发springboot(多模块)项目,发现使用main方法启动项目jsp页面404。
需要配置Run/Debug configuration。
spring boot–> configuration–>working directory : $MODULE_DIR$

今天最好的表现,是明天最低的要求。

Spring自动扫描扫不到jar包内的文件

发表于 2018-05-10

公司内规定的开发模式,所有功能已模块的形式发布,classes目录内没有class文件,每个功能都是一个jar包,放在lib目录内。
有需求需要在原有功能给当地客户定义功能,考虑不侵入原有代码。将新开发的功能单独打一个jar包。
我使用的是 jar cvf test.jar com/xxx/xxx/xxx.class打包,但是发现打的包放到服务器上报的是404说明Spring mvc没有识别到Controller。
使用 jar tf test.jar 可以看到

阅读全文 »

MapReduce笔记

发表于 2018-04-06

MapReduce原理

在将map的结果集传递给reduce之前对数据进行了分组(类似于对K2做了group by)

执行步骤

map任务处理

  • 读取输入文件内容,解析成key、value对。对输入文件的每一行,解析成key、value对。每一个键值对调用一次map函数。
  • 写自己的逻辑,对输入的key、value处理,转换成新的key、value输出。
  • 对输出的key、value进行分区。
  • 对不同分区的数据,按照key进行排序、分组。相同key的value放到一个集合中。
  • (可选)分组后的数据进行归约。

reduce任务处理

  • 对多个map任务的输出,按照不同的分区,通过网络copy到不同的reduce节点。
  • 对多个map任务的输出进行合并、排序。写reduce函数自己的逻辑,对输入的key、value处理,转换成新的key、value输出。
  • 把reduce的输出保存到文件中。
今天最好的表现,是明天最低的要求。

HDFS学习笔记

发表于 2018-04-06

HDFS架构体系

元数据

NameNode

  • 是整个文件系统的管理节点。它维护着整个文件系统的文件目录树,文件/目录的元信息和每个文件对应的数据块列表。接收用户的操作请求。
  • 文件包括:
    • fsimage:元数据镜像文件。存储某一时段NameNode内存元数据信息。
    • edits:操作日志文件。
  • fstime:保存最近一次checkpoint的时间
  • 以上这些文件是保存在linux的文件系统中。

    NameNode工作特点

  1. Namenode始终在内存中保存metedata,用于处理“读请求”
  2. 到有“写请求”到来时,namenode会首先写editlog到磁盘,即向edits文件中写日志,成功返回后,才会修改内存,并且向客户端返回
  3. Hadoop会维护一个fsimage文件,也就是namenode中metedata的镜像,但是fsimage不会随时与namenode内存中的metedata保持一致,而是每隔一段时间通过合并edits文件来更新内容。Secondary namenode就是用来合并fsimage和edits文件来更新NameNode的metedata的。

SecondaryNameNode

  • HA的一个解决方案。但不支持热备。配置即可。
  • 执行过程:从NameNode上下载元数据信息(fsimage,edits),然后把二者合并,生成新的fsimage,在本地保存,并将其推送到NameNode,替换旧的fsimage.
  • 默认在安装在NameNode节点上,但这样…不安全!

secondary namenode的工作流程

  1. secondary通知namenode切换edits文件
  2. secondary从namenode获得fsimage和edits(通过http)
  3. secondary将fsimage载入内存,然后开始合并edits
  4. secondary将新的fsimage发回给namenode
  5. namenode用新的fsimage替换旧的fsimage

DataNode

  • 提供真实文件数据的存储服务。
  • 文件块(block):最基本的存储单位。对于文件内容而言,一个文件的长度大小是size,那么从文件的0偏移开始,按照固定的大小,顺序对文件进行划分并编号,划分好的每一个块称一个Block。HDFS默认Block大小是128MB,以一个256MB文件,共有256/128=2个Block.
    不同于普通文件系统的是,HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间
  • Replication。多复本。默认是三个。 hdfs-site.xml的dfs.replication属性

HDFS

读过程

初始化FileSystem,然后客户端(client)用FileSystem的open()函数打开文件
FileSystem用RPC调用元数据节点,得到文件的数据块信息,对于每一个数据块,元数据节点返回保存数据块的数据节点的地址。
FileSystem返回FSDataInputStream给客户端,用来读取数据,客户端调用stream的read()函数开始读取数据。
DFSInputStream连接保存此文件第一个数据块的最近的数据节点,data从数据节点读到客户端(client)
当此数据块读取完毕时,DFSInputStream关闭和此数据节点的连接,然后连接此文件下一个数据块的最近的数据节点。
当客户端读取完毕数据的时候,调用FSDataInputStream的close函数。
在读取数据的过程中,如果客户端在与数据节点通信出现错误,则尝试连接包含此数据块的下一个数据节点。
失败的数据节点将被记录,以后不再连接。

写过程

初始化FileSystem,客户端调用create()来创建文件
FileSystem用RPC调用元数据节点,在文件系统的命名空间中创建一个新的文件,元数据节点首先确定文件原来不存在,并且客户端有创建文件的权限,然后创建新文件。
FileSystem返回DFSOutputStream,客户端用于写数据,客户端开始写入数据。
DFSOutputStream将数据分成块,写入data queue。data queue由Data Streamer读取,并通知元数据节点分配数据节点,用来存储数据块(每块默认复制3块)。分配的数据节点放在一个pipeline里。Data Streamer将数据块写入pipeline中的第一个数据节点。第一个数据节点将数据块发送给第二个数据节点。第二个数据节点将数据发送给第三个数据节点。
DFSOutputStream为发出去的数据块保存了ack queue,等待pipeline中的数据节点告知数据已经写入成功。
当客户端结束写入数据,则调用stream的close函数。此操作将所有的数据块写入pipeline中的数据节点,并等待ack queue返回成功。最后通知元数据节点写入完毕。
如果数据节点在写入的过程中失败,关闭pipeline,将ack queue中的数据块放入data queue的开始,当前的数据块在已经写入的数据节点中被元数据节点赋予新的标示,则错误节点重启后能够察觉其数据块是过时的,会被删除。失败的数据节点从pipeline中移除,另外的数据块则写入pipeline中的另外两个数据节点。元数据节点则被通知此数据块是复制块数不足,将来会再创建第三份备份。

HDFS shell

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
1,Hadoop fs –fs [local | <file system URI>]:声明hadoop使用的文件系统,如果不声明的话,使用当前配置文件配置的,按如下顺序查找:hadoop jar里的hadoop-default.xml->$HADOOP_CONF_DIR下的hadoop-default.xml->$HADOOP_CONF_DIR下的hadoop-site.xml。使用local代表将本地文件系统作为hadoop的DFS。如果传递uri做参数,那么就是特定的文件系统作为DFS。

2,hadoop fs –ls <path>:等同于本地系统的ls,列出在指定目录下的文件内容,支持pattern匹配。输出格式如filename(full path) <r n> size.其中n代表replica的个数,size代表大小(单位bytes)。

3,hadoop fs –lsr <path>:递归列出匹配pattern的文件信息,类似ls,只不过递归列出所有子目录信息。

4,hadoop fs –du <path>:列出匹配pattern的指定的文件系统空间总量(单位bytes),等价于unix下的针对目录的du –sb <path>/*和针对文件的du –b <path> ,输出格式如name(full path) size(in bytes)。

5,hadoop fs –dus <path>:等价于-du,输出格式也相同,只不过等价于unix的du -sb。

6,hadoop fs –mv <src> <dst>:将制定格式的文件 move到指定的目标位置。当src为多个文件时,dst必须是个目录。

7,hadoop fs –cp <src> <dst>:拷贝文件到目标位置,当src为多个文件时,dst必须是个目录。

8,hadoop fs –rm [-skipTrash] <src>:删除匹配pattern的指定文件,等价于unix下的rm <src>。

9,hadoop fs –rmr [skipTrash] <src>:递归删掉所有的文件和目录,等价于unix下的rm –rf <src>。

10,hadoop fs –rmi [skipTrash] <src>:等价于unix的rm –rfi <src>。

11,hadoop fs –put <localsrc> … <dst>:从本地系统拷贝文件到DFS。

12,hadoop fs –copyFromLocal <localsrc> … <dst>:等价于-put。

13,hadoop fs –moveFromLocal <localsrc> … <dst>:等同于-put,只不过源文件在拷贝后被删除。

14,hadoop fs –get [-ignoreCrc] [-crc] <src> <localdst>:从DFS拷贝文件到本地文件系统,文件匹配pattern,若是多个文件,则dst必须是目录。

15,hadoop fs –getmerge <src> <localdst>:顾名思义,从DFS拷贝多个文件、合并排序为一个文件到本地文件系统。

16,hadoop fs –cat <src>:展示文件内容。

17,hadoop fs –copyToLocal [-ignoreCrc] [-crc] <src> <localdst>:等价于-get。

18,hadoop fs –mkdir <path>:在指定位置创建目录。

19,hadoop fs –setrep [-R] [-w] <rep> <path/file>:设置文件的备份级别,-R标志控制是否递归设置子目录及文件。

20,hadoop fs –chmod [-R] <MODE[,MODE]…|OCTALMODE> PATH…:修改文件的权限,-R标记递归修改。MODE为a+r,g-w,+rwx等,OCTALMODE为755这样。

21,hadoop fs -chown [-R] [OWNER][:[GROUP]] PATH…:修改文件的所有者和组。-R表示递归。

22,hadoop fs -chgrp [-R] GROUP PATH…:等价于-chown … :GROUP …。

23,hadoop fs –count[-q] <path>:计数文件个数及所占空间的详情,输出表格的列的含义依次为:DIR_COUNT,FILE_COUNT,CONTENT_SIZE,FILE_NAME或者如果加了-q的话,还会列出QUOTA,REMAINING_QUOTA,SPACE_QUOTA,REMAINING_SPACE_QUOTA。
今天最好的表现,是明天最低的要求。

安装单机hadoop-linux虚拟机配置

发表于 2018-04-05

伪分布模式安装步骤

  • 关闭防火墙
  • 修改ip
  • 修改hostname
  • 设置ssh自动登录
  • 安装jdk
  • 安装hadoop
    阅读全文 »

Java多线程--三个线程分别打印a,b,c.请用多线程实现循环打印15次abc

发表于 2018-03-26

Java多线程–三个线程分别打印a,b,c.请用多线程实现循环打印15次abc

阅读全文 »

Hello World

发表于 2018-03-26
1
2
3
4
5
6
7
public class highlight
{
public static void main(String args[])
{
System.out.println("Highlight");
}
}

JDK并发包

发表于 2018-02-22 | 分类于 Java并发编程

同步工具

阅读全文 »

高并发网站中的数据库设计

发表于 2018-02-09 | 分类于 数据库

介绍

数据库其实就是一个普通的计算机系统,为我们提供某种服务。
我们对数据库功能的抽闲可以将数据库功能抽象成三个部分

阅读全文 »

虚拟机安装Centos,安装mysql,配置主从(三)

发表于 2018-02-08
今天最好的表现,是明天最低的要求。
12…4

Geng

今天最好的表现,是明天最低的要求。

31 日志
13 分类
10 标签
RSS
© 2018 Geng
由 Hexo 强力驱动
|
主题 — NexT.Gemini v5.1.4