欢迎光临
我们一直在努力

Linux运维体系大纲

u22e阅读(1254)

Linux入门

Linux系统管理

Linux服务及安全管理

  • lamp, lnmp, httpd
  • cache类工具: memcached, varnish
  • DB: mysql (mariadb) 基本使用、sql接口

Linux Cluster

  • LB Cluster: Nginx(7层), LVS(4层), Haproxy(7, 模拟4层)
  • HA Cluster: Keepalived, corosync + pacemake

Linux Ops

  • ansible: python研发,中小规模企业,加速运维操作
  • puppet: ruby研发,成熟
  • saltstack: python研发,不成熟

Linux Monitor

  • zabbix

Shell编程

tomcat:jvm,框架,内置cluster: replication cluster

分布式存储系统:

  • MogileFS (Nignx反代用户请求整合MogileFS)
  • GlusterFS

MySQL高级应用:HA Cluster, MHA, mysql replication, read-write splitting

NoSQL: redis (Key/Value) ,  mongodb(文档存储), HBase

虚拟化:

  • Linux操作系统原理;虚拟化技术应用详解
  • kvm虚拟化技术,xen虚拟化
  • 虚拟化网络:SDN
  • OpenStack云栈(python研发)

Docker容器云

ELK Elasticsearch Logstash Kibana

Hadoop v1 v2

  • Hive HBase
  • Storm Spark

Python编程

磁盘管理及shell脚本编程练习

u22e阅读(1113)

1、创建一个10G分区,并格式为ext4文件系统

a) 要求其block大小为2048,预留空间百分比为2,卷标为MYDATA,默认挂载属性包含acl;
~]# mke2fs –t ext4 –b 2048 –m 2 –L MYDATA /dev/sda3

b) 挂载至/data/madata目录,要求挂载时禁止程序自动运行,且不更新文件的访问时间戳;
~]# mount –o acl,noatime,noexec /dev/sda3 /data/mydata

2、创建一个大小为1G的swap分区,并创建好文件系统,并启用之

~]# partx –a /dev/sda

~]# mkswap /dev/sda4

~]# swapon /dev/sda4

3、写一个脚本

a) 获取并列出当前系统上所有磁盘设备
b) 显示每个磁盘设备上每个分区相关的空间使用信息
#!/bin/bash

disk=$(ls /dev/sd[a-z])

echo $disk

fdisk –l /dev/sd[a-z]

4、总结RAID的各个级别及其组合方式和性能的不同

磁盘阵列的英文全名是RedundantArrays of lnexpensive Disks (RAID),即容错廉价磁盘阵列。RAID 可以通过一些技术将多个较小的磁盘整合成为一个较大的磁盘设备;而这个较大的磁盘功能可不止是存储而已。它还具有数据保护的功能。整个RAID由于选择的等级(level)不同。而使得整合后的磁盘具有不同的功能。基本常见的等级有这几种。

RAID-0(等量模式,stripe):性能最佳

这种模式如果使用相同型号与容量的磁盘来组成时,效果较佳。这种模式的RAID会将磁盘先切出等量的区块,然后当一个文件要写入RAID时。该文件会依据块的大小切割好。之后再依序放到各个磁盘里面去。由于每个磁盘会交错存放数据。因此当你的数据要写入RAID时。数据会被等量放置在各个磁盘上面。使用此等级必须要自行负担数据损毁的风险,如果某一块磁盘损毁了,那么文件数据将缺一块。此时这个文件就损毁了。由于每个文件都是这样存放的。因此RAID-0只要有任何一块磁盘损毁。在RAID上面的所有数据都会丢失而无法读取。

RAID-1(映像模式。mirror):完整备份

这种模式也是需要相同的磁盘容量,最好是一模一样的磁盘。如果是不同容量的磁盘组成RAID-1时。那么容量将以最小的那一块磁盘为主。这种模式主要是让同一份数据完整保存在两块磁盘上面。因此,整体RAID的容量几乎少了一半。由于两块磁盘内的数据一模一样,所以任何一块硬盘损毁时,数据还是可以完整保留下来。所以说RAID-1最大的优点大概就在于数据的备份。不过由于磁盘容量有一半用在备份,因此总容量会是全部磁盘容量的一半。虽然RAID-1的写入性能不佳,不过读取的性能还可以。这是因为数据有两份在不同的磁盘上面,如果多个进程在读取同一条数据是,RAID会自行取得最佳的读取平衡。

RAID 0+1,RAID 1+0

RAID 0+1就是先让两块磁盘组成RAID 0 ,并且这样的设置共有两组;然后将这两组RAID 0再组成一组RAID 1。这就是RAID 0+1。反过来说,RAID1+0就是先组成RAID-1再组成RAID-0的意思。由于具有RAID 0和RAID 1的优点,所以性能得到提升,并且数据也得以备份。但同时总容量会少一半用来作为备份。

RAID 5:性能与数据备份的均衡考虑

RAID-5至少需要三块以上的磁盘才能组成这种类型的磁盘阵列。这种磁盘阵列的数据写入优点类似RAID-0,不过每个循环的写入过程中,在每块磁盘还加入一个同为检查数据,这个数据会记录其他磁盘的备份数据,用于当有磁盘损毁时的救援。由于有同位检查码,因此RAID5的总容量护士整体磁盘数量减一块。当损毁的磁盘数量大于等于两块时,这整组RAID 5的数据就损毁了。因为RAID 5 默认仅能支持一块磁盘的损毁情况。

5、创建一个大小为10G的RAID1,要求有一个空闲盘,而且CHUNK大小为128K

~]# mdadm –C /dev/md0 –l 1 –n 2 –a yes –c 128 –x 1 /dev/sdc{1,2,3}

6、创建一个大小为4G的RAID5设备,chunk大小为256k,格式化ext4文件系统,要求可开机自动挂载至/backup目录,而且不更新访问时间戳,且支持acl功能

~]# mdadm -C /dev/md1 -a yes -n 3 -c 256 -l 5 /dev/sdd{1,2,3}

~]# blkid /dev/md1

~]# mkdir /backup

~]# mount /dev/md1 /backup/

7、写一个脚本

a) 接受一个以上文件路径作为参数
b) 显示每个文件拥有的行数
c) 总结说明本次共为几个文件统计了其行数
#!/bin/bash

#

declare –I sum=$#

if [$# -ep 0]; then

echo “please input the file path”

exit 1

fi

for I in $*;do

if [-f $i];then

line=$(wc –l $i | cut –d “ ” –f 1)

ecgo “$i has $line lines”

fi

done

echo “there are $sum files total.”

8、写一个脚本

a) 传递两个以上字符串当作用户名
b) 创建这些用户,且密码同用户名
c) 总结说明共创建了几个用户
#!/bin/bash

#

declare –I sum=$#

if [$# -lt 1];then

echo “please input at least two users”

exit 1

fi

for i in $*;do

useradd $i

password=$i

echo $password | passwd –stdin $i

done

echo ”Creatde users are $sum total.”

9、写一个脚本,新建20个用户,visitor1-visitor20;计算他们的ID之和

#!/bin/bash

#

sum=0

for I in {1..20};do

useradd $i

idsum=$(id –u $i)

let sum+=$idsum

done

echo “idsum=$sum”

工程师面试题目

u22e阅读(1172)

1,反转二叉树

BiTree ReversedBiTree(BiTree root)
{
if (root == null) {
return null;
}
root->left = ReversedTree(root->left);
root->right = ReversedTree(root->right);

BiTree tmp = root->left;
root->left = root->right;
root->right = tmp;
return root;
}

 

2,从一个字符串中找出出现频率最高的字符

int[] x = new int[26];
char[] ca = str.toCharArray();
for(int i=0;i <ca.length;i++){
x[ca[i]-'a']++;
}
for(int i=0;i <ca.length;i++){
System.out.println("字符"+(char)('a'+i)+"出现了"+ca[i]+"次");
}

3,快速排序

快速排序选择基准的三种方法:

  • 1,选第一个;
  • 2,随机选
  • 3,选择1,nn/2 的平均数

四种优化方法:

  • 优化1:当待排序序列的长度分割到一定大小后,使用插入排序(对于小规模部分有序的数组,快排不如插排好)
  • 优化2:在一次分割结束后,可以把与Key相等的元素聚在一起,继续下次分割时,不用再对与key相等元素分割
  • 优化3:优化递归操作,使用为递归进行优化
  • 优化4:使用并行或多线程处理子序列
void quicksort(int arr[],int left,int right)
{
int i,j,t,temp;
if(left>=right)
return;
temp=a[left]; //temp中存的就是基准数
i=left;
j=right;
while(i!=j)
{
while(a[j]>=temp && i<j) //顺序很重要,要先从右边开始找
j--;
while(a[i]<=temp && i<j) //再找右边的
i++;
if(i<j) //交换两个数在数组中的位置
{
t=a[i];
a[i]=a[j];
a[j]=t;
}
}
a[left]=a[i]; //最终将基准数归位
a[i]=temp;
quicksort(arr,left,i-1);//继续处理左边的,这里是一个递归的过程
quicksort(arr,i+1,right);//继续处理右边的 ,这里是一个递归的过程

4,二分查找

int BinSearch(int arr[],int low,int high,int num)
{
while(low<=high)
{
int mid=(low+high)/2;
if(num==arr[mid]) return mid;
else if(num < arr[mid]) high=mid-1;
else low=mid+1;
}
return -1;
}

5,希尔排序

void shellsort2(int a[], int n)
{
int j, gap;

for (gap = n / 2; gap > 0; gap /= 2)
for (j = gap; j < n; j++)//从数组第gap个元素开始
if (a[j] < a[j - gap])//每个元素与自己组内的数据进行直接插入排序
{
int temp = a[j];
int k = j - gap;
while (k >= 0 && a[k] > temp)
{
a[k + gap] = a[k];
k -= gap;
}
a[k + gap] = temp;
}
}

6,冒泡排序(在某趟冒泡排序过程中,若没有发现一个逆序对,就可以直接结束整个排序过程)

void bubble_sort(int arr[],int n)
{
int flag=1;
for(int i=0;i<n && flag;i++)
{
flag=0;
for(int j=0;j<n-i;j++)
if(a[j]>a[j+1])
{
int tmp=a[j];
a[j]=a[j+1];
a[j+1]=tmp;
flag=1;
}
}
}

7,选择排序

void select_sort(int arr[],int n)
{
for(int i=0;i<n;i++)
{
int k=i;
for(int j=i+1;j<n;j++)
if(a[j]<a[k])
k=j;
if(k!=i)
{
int tmp=a[i];
a[i]=a[k];
a[k]=tmp;
}
}
}

8,插入排序

void insert_sort(int arr[],int n)
{
for(int i=2;i<n;i++)
{
if(a[i]<a[i-1])
{
a[0]=a[i];
for(int j=i;a[0]<a[j];j--)
a[j+1]=a[j]; //记录后移
a[j+1]=a[0]; //插入到正确的位置
}
}
}

9,木桶排序

#include <stdio.h>
int main()
{
int a[11],i,j,t;
for(i=0;i<=10;i++)
a[i]=0; //初始化为0

for(i=1;i<=5;i++) //循环读入5个数
{
scanf("%d",&t); //把每一个数读到变量t中
a[t]++; //进行计数
}

for(i=0;i<=10;i++) //依次判断a[0]~a[10]
for(j=1;j<=a[i];j++) //出现了几次就打印几次
printf("%d ",i);
}

10,实现一个逆转函数

#!/usr/bin/env python
# coding=utf-8

 

string_reversed = lambda x:x[::-1]

if __name__ == '__main__':
s = 'abcde'
print string_reversed(s)

puppet的安装和配置讲解

u22e阅读(1778)

一、Puppet简介

Puppet基于ruby语言开发的自动化系统配置工具,可以C/S模式或独立运行,支持对所有UNIX及类UNIX系统的配置管理,最新版本也开始支持对Windows操作系统有限的一些管理。Puppet适用于服务器管的整个过程 ,比如初始安装、配置更新以及系统下线。

二、Puppet的安装

Puppet的安装方式支持源码安装、yum安装以及ruby的gem安装。官网推荐使用yum来安装puppet,方面以后的升级、管理、维护。Centos可以采用yum来安装,但是Centos的默认源中没有puppet包,因此需要先安装epel包。Epel是企业版Linux附加软件包(Extra Packages for Enterprise Linux)的缩写,是一个由特别兴趣小组创建、维护并管理的,针对红帽企业版Linux(RHEL)及其衍生发行版(比如CentOS、Scientific Linux)的一个高质量附加软件包项目。

  1. Master的安装

yum -y install ruby ruby-libs ruby-shadow

wget ftp://ftp.sunet.se/pub/Linux/distributions/yellowdog/yum/6.2/extras/RPMS/epel-release-5-3.noarch.rpm

rpm -Uvh epel-release-5-3.noarch.rpm

yum -y install puppet puppet-server facter

  1. Agent的安装

yum install ruby ruby-libs ruby-shadow

wget ftp://ftp.sunet.se/pub/Linux/distributions/yellowdog/yum/6.2/extras/RPMS/epel-release-5-3.noarch.rpm

rpm -Uvh epel-release-5-3.noarch.rpm

yum -y install puppet facter

 

至此如果安装过程不报错的话,puppet已经安装成功了。

三、Puppet的简单配置

  1. Master的配置

先来看看puppet主目录下都有什么文件已经每个文件是做什么用的:

ls -1 /etc/puppet/

auth.conf       #定义puppet master的acl文件

fileserver.conf   #定义puppet master文件服务器的配置文件

manifests        #puppet脚本主文件目录,site.pp文件必须存在

modules            #puppet模块目录

puppet.conf     #puppet主配置文件

ssl                     #存放ssl证书的目录

刚开始的话, puppet.conf不需要配置就可以满足。

需要更改hosts文件,注意hosts要和主机名对应。

vim  /etc/hosts添加如下内容:

10.1.4.218 puppet.zhang.com puppet

10.1.4.213 node1.zhang.com node1

10.1.4.214 node2.zhang.com node2

大家要根据实际情况加,我这里是一个master,两个agent。

  1. Agent的配置

Agent的配置主要是更改agent上的/etc/puppet/puppet.conf文件的[agent]部分。

在agent上vim /etc/puppet/puppet.conf 添加如下配置

server = puppet.zhang.com        #master服务器的地址

runinterval = 3600                       #每隔多久的时间进行自动更新,时间单位为秒

listen = true                         #客户端作为一个服务进行监听,允许其它的机器触发puppet运行允许远程触发puppet的节点配置

 

四、puppet的启动和停止

  1. Master的启动和停止

Master的启动

/etc/rc.d/init.d/puppetmaster start

也可以以采用 service puppetmaster start启动

第一次启动建议采用puppet master –verbose –no-daemonize方式启动,有助于测试和调试错误,如果采用后面这种方式,你可以看到启动的整个过程,启动过程会做一些初始化的工作,为master创建本地证书认证中心,证书和key。并打开socket等待client的连接。你可以在/etc/puppet/ssl目录看到相关的文件和目录。

Master的停止

/etc/rc.d/init.d/puppetmaster stop

也可以以采用 service puppetmaster stop停止

更改多选项可以使用/etc/rc.d/init.d/puppetmaster –h查看

  1. Agent的启动和停止

Agent的启动

/etc/rc.d/init.d/puppet start

也可以采用service puppet start来启动

调试的时候可以采用

puppet agent –server=puppet.zhang.com –no-daemonize –verbose

的方式来启动,这样启动我们可以看到agent是如何和master建立连接的。

Agent的停止

/etc/rc.d/init.d/puppet stop

也可以采用service puppet stop来停止。

 

五、FAQ

  1. 连接master的时候出现如下报错:

dnsdomainname: Unknown host

解决办法:检查机器主机名的设置,以及是否添加进hosts。

  1. 连接master的时候出现如下报错:

err: Could not request certificate: getaddrinfo: Name or service not known

解决办法:服务器端没有配置hosts域名绑定,在hosts中添加。

  1. 连接master的时候出现如下报错:

warning: peer certificate won’t be verified in this SSL session

解决办法:服务端还没有返回签发证书,使用puppet cert –list查看

  1. 连接master的时候出现如下报错:

err: Could not retrieve catalog from remote server: certificate verify failed

解决办法:客户端和服务器端时间不同步,SSL连接需要依赖主机上的时间是否正确。执行更新时间的命令:/sbin/ntpdate asia.pool.ntp.org

 

Nginx环境下404页面如何实现

u22e阅读(2214)

一个网站项目,肯定是避免不了404页面的,通常使用Nginx作为Web服务器时,有以下集中配置方式,一起来看看。

第一种:Nginx自己的错误页面

Nginx访问一个静态的html 页面,当这个页面没有的时候,Nginx抛出404,那么如何返回给客户端404呢?

看下面的配置,这种情况下不需要修改任何参数,就能实现这个功能。

server {

listen      80;

server_name  www.test.com;

root   /var/www/test;

index  index.html index.htm;

location / {

}

# 定义错误页面码,如果出现相应的错误页面码,转发到那里。

error_page  404 403 500 502 503 504  /404.html;

# 承接上面的location。

location = /404.html {

# 放错误页面的目录路径。

root   /usr/share/nginx/html;

}

}

第二种:反向代理的错误页面

如果后台Tomcat处理报错抛出404,想把这个状态叫Nginx反馈给客户端或者重定向到某个连接,配置如下:

upstream www {

server 192.168.1.201:7777  weight=20 max_fails=2 fail_timeout=30s;

ip_hash;

}

server {

listen       80;

server_name www.test.com;

root   /var/www/test;

index  index.html index.htm;

 

location / {

if ($request_uri ~* ‘^/$’) {

rewrite .*   http://www.test.com/index.html redirect;

}

# 关键参数:这个变量开启后,我们才能自定义错误页面,当后端返回404,nginx拦截错误定义错误页面

proxy_intercept_errors on;

proxy_pass      http://www;

proxy_set_header HOST   $host;

proxy_set_header X-Real-IP      $remote_addr;

proxy_set_header X-Forwarded-FOR $proxy_add_x_forwarded_for;

}

error_page    404  /404.html;

location = /404.html {

root   /usr/share/nginx/html;

}

}

第三种:Nginx解析php代码的错误页面

如果后端是php解析的,需要加一个变量

在http段中加一个变量 fastcgi_intercept_errors on 就可以了。

指定一个错误页面:

error_page    404  /404.html;

location = /404.html {

root   /usr/share/nginx/html;

}

指定一个url地址:

error_page 404  /404.html;

error_page 404 = http://www.test.com/error.html;

buffer与cache的不同之处及如何使用

u22e阅读(1232)

前几天看到有些伙伴傻傻分不清楚buffer与cache的用处,后来发现我也不能很清楚的说出来buffer与cache在不同的地方有什么不同之处,这里就总结了一些关于buffer于cache的区别,如有不完善的地方,请大家指出来。

说到buffer与cache,那就不得不来说说free命令了,先来看一下free命令的执行结果:

当我执行了复制的命令后,我们再来看一看内存的变化情况:

执行结束后cached暴增到了218,这是为了提高磁盘存取效率, Linux做了一些精心的设计, 除了对dentry进行缓存(用于VFS,加速文件路径名到inode的转换), 还采取了两种主要Cache方式:Buffer Cache和Page Cache。前者针对磁盘块的读写,后者针对文件inode的读写。这些Cache有效缩短了 I/O系统调用(比如read,write,getdents)的时间。”

有些人说过一段时间,系统就会自动释放这一部分cached,可是结果并不是这样的, 在过了一段时间之后,cached依然居高不下,在收集了一些大牛的资料之后,我总结了一些小技巧:

我们可以通过手动来清除缓存,在/下有个proc的文件,/proc是一个虚拟文件系统,我们可以通过对它的读写操作做为与kernel实体间进行通信的一种手段.也就是说可以通过修改/proc中的文件,来对当前kernel的行为做出调整.那么我们可以通过调整/proc/sys/vm/drop_caches来释放内存.操作如下:

 /proc/sys/vm/drop_caches的值,默认为0
 手动执行sync命令(描述:sync 命令运行 sync 子例程。如果必须停止系统,则运行 sync 命令以确保文件系统的完整性。sync 命令将所有未写的系统缓冲区写到磁盘中,包含已修改的 i-node、已延迟的块 I/O 和读写映射文件)
 将/proc/sys/vm/drop_caches值设为3
 再来运行free命令,发现现在的cached变成 49M了。

看来这个手动清除的方法还是很有效的

有关/proc/sys/vm/drop_caches的用法在下面进行了说明
/proc/sys/vm/drop_caches (since Linux 2.6.16)
Writing  to  this  file  causes the kernel to drop clean caches,
dentries and inodes from memory, causing that memory  to  become free.
To free  pagecache,  use  echo 1 > /proc/sys/vm/drop_caches;

To free dentries and inodes, use echo 2 > /proc/sys/vm/drop_caches;
To free   pagecache,   dentries  and  inodes,  use  echo  3  >
/proc/sys/vm/drop_caches.
Because this is a non-destructive operation  and  dirty  objects
are not freeable, the user should run sync(8) first.

查了一些英文资料,对于buffer 与cache 的区别是这样描述的:
A buffer is something that has yet to be “written” to disk. A cache is something that has been “read” from the disk and stored for later use.

cache 和 buffer的区别:
Cache:高速缓存,是位于CPU与主内存间的一种容量较小但速度很高的存储器。由于CPU的速度远高于主内存,CPU直接从内存中存取数据要等待一定时间周期,Cache中保存着CPU刚用过或循环使用的一部分数据,当CPU再次使用该部分数据时可从Cache中直接调用,这样就减少了CPU的等待时间,提高了系统的效率。Cache又分为一级Cache(L1 Cache)和二级Cache(L2 Cache),L1 Cache集成在CPU内部,L2 Cache早期一般是焊在主板上,现在也都集成在CPU内部,常见的容量有256KB或512KB L2 Cache。
Buffer:缓冲区,一个用于存储速度不同步的设备或优先级不同的设备之间传输数据的区域。通过缓冲区,可以使进程之间的相互等待变少,从而使从速度慢的设备读入数据时,速度快的                            设备的操作进程不发生间断。

Free中的buffer和cache:(它们都是占用内存):
buffer : 作为buffer cache的内存,是块设备的读写缓冲区
cache: 作为page cache的内存, 文件系统的cache
如果 cache 的值很大,说明cache住的文件数很多。如果频繁访问到的文件都能被cache住,那么磁盘的读I/O 比会非常小。

RHEL7 7.2 7.3解决无法使用YUM源问题

u22e阅读(2865)

RHEL的YUM源需要注册用户才能更新使用,由于CentOS和RHEL基本没有区别,并且CentOS已经被REHL收购。所以将RHEL的YUM源替换为CentOS即可。
问题如下:
[root@bogon ~]# yum repolist
Loaded plugins: product-id, refresh-packagekit, security, subscription-manager
This system is not registered to Red Hat Subscription Management. You can use subscription-manager to register.
repolist: 0

解决方法:
1.清除原有RHEL的YUM及相关软件包。
rpm -qa | grep yum | xargs rpm -e –nodeps
rpm -qa |grep python-urlgrabber|xargs rpm -e –nodeps

rpm -qa |grep python-iniparse|xargs rpm -e –nodeps

2.下载163的yum 安装包

http://mirrors.163.com/centos/7/os/x86_64/Packages/yum-metadata-parser-1.1.4-10.el7.x86_64.rpm

wget http://mirrors.163.com/centos/7/os/x86_64/Packages/yum-plugin-fastestmirror-1.1.31-40.el7.noarch.rpm

wget http://mirrors.163.com/centos/7/os/x86_64/Packages/python-urlgrabber-3.10-8.el7.noarch.rpm

wget http://mirrors.163.com/centos/7/os/x86_64/Packages/python-iniparse-0.4-9.el7.noarch.rpm

wget http://mirrors.163.com/centos/7/os/x86_64/Packages/yum-3.4.3-150.el7.centos.noarch.rpm

3.安装软件包。
rpm -ivh python-iniparse-0.3.1-2.1.el7.noarch.rpm
rpm -ivh python-urlgrabber-3.9.1-11.el7.noarch.rpm
rpm -ivh yum-metadata-parser-1.1.2-17.el7.x87_74.rpm
rpm -ivh yum-plugin-fastestmirror-1.1.30-37.el7.noarch.rpm yum-3.2.29-73.el7.centos.noarch.rpm
*注释yum-plugin-fastestmirror和yum-3.2.29要一起安装。

如果按照遇到问题:发现错误,python-urlgrabber版本必须大于等于3.9.1-10
# rpm -ivh  yum-3.2.29-73.el7.centos.noarch.rpm yum-plugin-fastestmirror-1.1.30-37.el7.noarch.rpm
warning: yum-3.2.29-73.el7.centos.noarch.rpm: Header V3 RSA/SHA1 Signature, key ID c105b9de: NOKEY
error: Failed dependencies:
python-urlgrabber >= 3.9.1-10 is needed by yum-3.2.29-73.el7.centos.noarch
查看系统的python信息
# rpm -qa|grep python

发现python-urlgrabber-3.9.1-9.el7.noarch 版本低于3.9.1-10
卸载:python-urlgrabber-3.9.1-9.el7.noarch
rpm -e python-urlgrabber-3.9.1-9.el7.noarch
安装:rpm -ivh python-urlgrabber-3.9.1-11.el7.noarch.rpm

安装yum
# rpm -ivh yum-*

4、创建文件/etc/yum.repos.d/rhel-debuginfo.repo并写入

[base]
name=CentOS-$releasever – Base
baseurl=http://mirrors.163.com/centos/7/os/$basearch/
gpgcheck=1
gpgkey=http://mirrors.163.com/centos/7/os/x86_64/RPM-GPG-KEY-CentOS-7

 

#released updates
[updates]
name=CentOS-$releasever – Updates
baseurl=http://mirrors.163.com/centos/7/updates/$basearch/
gpgcheck=1
gpgkey=http://mirrors.163.com/centos/7/os/x86_64/RPM-GPG-KEY-CentOS-7

 

[extras]
name=CentOS-$releasever – Extras
baseurl=http://mirrors.163.com/centos/7/extras//$basearch/
gpgcheck=1
gpgkey=http://mirrors.163.com/centos/7/os/x86_64/RPM-GPG-KEY-CentOS-7

[centosplus]
name=CentOS-$releasever – Plus
“rhel.repo” 26L, 690C

5、清理yum缓存并升级系统

yum clean all

yum makecache #将服务器上的软件包信息缓存到本地,以提高搜索安装软件的速度
yum update  #升级所有包,改变软件设置和系统设置,系统版本内核都升级

6、 安装 epel 源

yum install epel-release

harbor 高可用部署

u22e阅读(4243)

harbor 高可用部署

数据库使用外接的mysql redis 解决session 问题

1.cephfs 部署

1.1 机器列表

10.0.0.1        harbor-ceph-node1 
10.0.0.2        harbor-ceph-node2 
10.0.0.3        harbor-ceph-node3 
10.0.0.4        harbor-ceph-node4 
10.0.0.5        harbor-ceph-node5 

1.2 安装ceph-deploy

1.2.1 添加ceph 源

我在跳板机上(10.0.0.10)安装ceph-deploy    

http://docs.ceph.org.cn/install/get-packages/ 参考资料

vim /etc/yum.repos.d/ceph.repo

[ceph]
name=Ceph packages for $basearch
baseurl=http://download.ceph.com/rpm-luminous/el7/$basearch
enabled=1
priority=2
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc

[ceph-noarch]
name=Ceph noarch packages
baseurl=http://download.ceph.com/rpm-luminous/el7/noarch
enabled=1
priority=2
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc

[ceph-source]
name=Ceph source packages
baseurl=http://download.ceph.com/rpm-luminous/el7/SRPMS
enabled=0
priority=2
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc 

使用的版本是rpm-luminous,系统为el7

1.2.2 安装release.asc 密钥

   rpm --import 'https://download.ceph.com/keys/release.asc'  

1.2.3 安装ceph-deploy(10.0.0.10)

   yum install ceph-deploy -y 

1.3 安装NTP SSH

  在所有的ceph 节点安装NTP 和SSH  
  yum install ntp ntpdate ntp-doc  -y
  yum install openssh-server -y       

1.4 创建ceph 用户

1.4.1 在各ceph 节点创建新用户

 useradd -d /home/ceph -m ceph        
 passwd ceph    

1.4.2 确保各ceph节点新创建的用户都有sudo 权限

 echo "ceph ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/ceph
 chmod 0440 /etc/sudoers.d/ceph

1.4.3 生成ssh密钥对

   su - ceph 
   ssh-keygen  直接回车就行

1.4.4 把公钥拷贝到ceph 节点

ssh-copy-id -i .ssh/id_rsa.pub ceph@10.0.0.1      
 ......

1.4.5 使用ssh 配置文件

su - ceph 
vi  .ssh/config 
  Host node1
    Hostname harbor-ceph-node1
    User ceph
   Host node2
	        Hostname harbor-ceph-node2
	        User ceph
	Host node3
	        Hostname harbor-ceph-node3
	        User ceph
	Host node4
	        Hostname harbor-ceph-node4
	        User ceph
	Host node5
	        Hostname harbor-ceph-node5
	        User ceph
	        
  chmod  644  .ssh/config  
  需要在ceph 节点上做一下hosts 解析 

1.5 创建分区

  为ceph 单独挂载一个独立磁盘 
  fdisk /dev/vdc			    
  mkfs.xfs /dev/vdc1 
  mkdir /ceph-harbor
  blikd
  写如到 /etc/fstab 
  mount  /dev/vdc1  /ceph-harbor      

1.6 安装存储集群

创建ceph 存储集群,它有3个monitor 和5个osd 守护进程。

在10.0.0.10上面 
su - ceph
mkdir my-cluster 
cd my-cluster 
使用sudo 注意事项
禁用 requiretty
在某些发行版(如 CentOS )上,执行 ceph-deploy 命令时,如果你的 Ceph 节点默认设置了 requiretty 那就会遇到报错。可以这样禁用此功能:执行 sudo visudo ,找到 Defaults requiretty 选项,把它改为 Defaults:ceph !requiretty ,这样 ceph-deploy 就能用 ceph 用户登录并使用 sudo 了。 
1.6.1 创建集群
 ceph-deploy new {initial-monitor-node(s)}
 
 ceph-deploy new  node1 node2 node3  
 #会在界面进行输出,网络状态好的情况下应该没有问题,不行的话可以替换一下hosts,在github上找一个可以翻墙的hosts 文件
 
  ceph.conf 配置文件默认的副本数3,可以在[global] 段: 
  osd pool default size = 2 
  如果有多个网卡,可以public network 写入ceph配置文件的[global] 
  public network = {ip-address}/{netmask} 

网络配置参考http://docs.ceph.org.cn/rados/configuration/network-config-ref/

1.6.2 安装ceph
 ceph-deploy install {ceph-node} [{ceph-node} ...]      
 ceph-deploy install  node1 node2 node3 node4 node5 
 ceph-deploy 将在各节点安装ceph,
 
 安装失败可以清除重新安装
 ceph-deploy purge {ceph-node} [{ceph-node}]
 
    
 配置初始 monitor(s)、并收集所有密钥:
 ceph-deploy mon create-initial
1.6.3 配置初始化monitor(s) 并收集所有密钥
 ceph-deploy mon create-initial
 
 完成上述操作后,当前目录里应该会出现这些密钥环:
	{cluster-name}.client.admin.keyring
	{cluster-name}.bootstrap-osd.keyring
	{cluster-name}.bootstrap-mds.keyring
	{cluster-name}.bootstrap-rgw.keyring
1.6.4 部署OSD
ceph-deploy osd prepare {ceph-node}:/path/to/directory
   
ceph-deploy osd prepare harbor-ceph-node1:/ceph-harbor harbor-ceph-node2:/ceph-harbor harbor-ceph-node3:/ceph-harbor harbor-ceph-node4:/ceph-harbor harbor-ceph-node5:/ceph-harbor
1.6.4 激活OSD
ceph-deploy osd activate {ceph-node}:/path/to/directory

ceph-deploy osd activate harbor-ceph-node1:/ceph-harbor harbor-ceph-node2:/ceph-harbor harbor-ceph-node3:/ceph-harbor harbor-ceph-node4:/ceph-harbor harbor-ceph-node5:/ceph-harbor
1.6.5 检查集群状态
 ceph health   

1.7 创建cephfs

1.7.1 创建元数据库服务器
 至少需要一个元数据服务器才能使用 CephFS ,执行下列命令创建元数据服务器:  
 ceph-deploy mds create {ceph-node}

 创建mds  
 ceph-deploy mds create harbor-ceph-node1
 # 因为我有3个副本,创建一个mds 就可以了
1.7.2 查看元数据的状态
ceph mds stat
e5: 1/1/1 up {0=harbor-ceph-node1=up:active}
1.7.3 创建文件系统

存储池、归置组配置参考 http://docs.ceph.org.cn/rados/configuration/pool-pg-config-ref/

http://docs.ceph.org.cn/rados/operations/placement-groups/

1.7.4 创建存储池
要用默认设置为文件系统创建两个存储池
ceph osd pool create cephfs_data <pg_num>  
ceph osd pool create cephfs_metadata <pg_num>

创建存储池
ceph osd pool create cephfs_data 625
ceph osd pool create cephfs_metadata 625
1.7.6 创建文件系统
 创建好存储池后,你可以用fs new 命令创建文件系统:
 ceph fs new <fs_name> <metadata> <data>  
 ceph fs new cephfs cephfs_metadata cephfs_data 

 ceph fs ls 
 name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data ] 
1.7.7 查看状态
文件系统创建完毕后,MDS 服务器就能active, 比如在一个单MDS 系统中: 
ceph mds stat 
e5: 1/1/1 up {0=harbor-ceph-node1=up:active} 

1.8 客户端mount cephfs

参考资料 http://docs.ceph.org.cn/cephfs/kernel/

http://docs.ceph.org.cn/start/quick-cephfs/#id3

客户端: 
   第一步  创建挂载目录 
        mkdir  /harbor 
   第二步  查看cephfs 秘钥 
   name 和secret 在ceph 的osd 下面目录去获取 
   cat /etc/ceph/ceph.client.admin.keyring
   
   第三步 mount 文件系统 
   如果有多个监视器:
   mount.ceph monhost1,monhost2,monhost3:/ /mnt/foo
   mount -t ceph  10.0.0.1:6789,10.0.0.2:6789,10.0.0.3:6789:/ /harbor  -o name=admin,secret=AQCprj5ZAilVHRAA73bX47zr2fGKpIwgk/DGsA==
  
   第四步 写入fstab 

参考资料 http://docs.ceph.com/docs/master/cephfs/fstab/

   vim /etc/fstab   
   10.0.0.1:6789,10.0.0.2:6789,10.0.0.3:6789:/ /harbor   ceph    name=admin,secret=AQCprj5ZAilVHRAA73bX47zr2fGKpIwgk/DGsA==,noatime,_netdev    0      0  

2 harbor 安装

机器列表
 10.0.0.12   harbor02 
 10.0.0.13   harbor03

2.1 安装docker

https://docs.docker.com/engine/installation/linux/centos/#install-from-a-package

yum install -y yum-utils device-mapper-persistent-data lvm2 
yum-config-manager \
--add-repo \
https://download.docker.com/linux/centos/docker-ce.repo
yum-config-manager --enable docker-ce-edge
yum install docker-ce  -y

2.2 安装docker-compose

 curl -L https://github.com/docker/compose/releases/download/1.13.0/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose
 chmod +x /usr/local/bin/docker-compose

 docker-compose --version
 docker-compose version 1.13.0, build 1719ceb 

3.安装harbor

3.1 下载harbor

harbor 程序包下载 https://github.com/vmware/harbor/releases

 安装目录/opt/harbor
 ./prepare
 ./install.sh 
默认安装导出数据库 
3.2 harbor 数据库导出
docker exec -ti 2f2df11a189f bash 

#数据库的默认密码在cat common/config/adminserver/env  中查看

mysqldump -u root -p --databases registry > registry.dump

退出container,将备份的数据copy 出来

docker cp 2f2df11a189f:/tmp/registry.dump .  
3.3 导入数据库文件
 mysql -uharbor -h 10.0.0.250 -p 
 source ./registry.dump;
3.4 配置外接数据库
 cp docker-compose.yml docker-compose.yml.bak       
 
 修改docker-compose.yml 删除的部分,并将以前的80端口修改为8090 
mysql:
image: vmware/harbor-db:v1.1.1
container_name: harbor-db
restart: always
volumes:
  - /data/database:/var/lib/mysql:z
networks:
  - harbor
env_file:
  - ./common/config/db/env
depends_on:
  - log
logging:
  driver: "syslog"
  options:  
    syslog-address: "tcp://127.0.0.1:1514"
    tag: "mysql"
  - mysql
3.5 修改harbor 引入的环境变量
 vi common/templates/adminserver/env  
 MYSQL_HOST=mysql
 MYSQL_PORT=3306
 MYSQL_USR=root
 MYSQL_PWD=$db_password  
 # 这里不需要修改密码,直接在harbor.cfg 中修改db_password 密码,然后传入变量进来   
 RESET=true
3.6 添加redis
 这里需要注意如果使用  
 vim common/templates/ui/env 在最后一行添加
 _REDIS_URL=reids_ip:port,100,redis_password,0
 _REDIS_URL=10.0.0.10:6379,100,Ar9as445p4vZ,0
3.7 修改配置harbor.cfg
  配置LDAP,新版本的1.1.1 在配置的时候需要不增加用户的情况下配置LDAP,如果重启的话也需要去数据库里面删除用户,然后才可以配置测试LDAP 
  编辑harbor.cfg 主配置文件
  vim harbor.cfg 
  hostname = 域名
  ui_url_protocol = http
  db_password = 数据库密码
  
  ssl_cert = /harbor/data/cert/server.crt   # 放在共享存储上
  ssl_cert_key = /harbor/data/cert/server.key    # 放在共享存储上
  
  secretkey_path = /harbor/data   # 放在共享存储上
  
  harbor_admin_password = Harbor12345    # harbor 登录密码设置
  
  #auth_mode = db_auth
  auth_mode = ldap_auth
  这里需要注意的是,第一次启动的可以选择db 认证,在web 界面修改为LDAP之后,也同时也需要在配置文件中修改LDAP  
  ./prepare 
  ./install.sh  
   harbor 默认只支持一种认证,所以配置LDAP 之后,需要在配置文件也修改为LDAP认证。  
  备注:在web界面修改的密码以及配置的邮件同时也需要添加到harbor.cfg 中去     
3.8 节点加入LB
  配置LB 使用keeplived 或者云平台的LB选择ip hash 解析,否则docker login 的时候会报认证的错误   
  
  
  如果harbor各个节点上harbor.cfg 中的hostname= 配置为ip加端口,那么harbor 页面会显示镜像的名称为ip:port ,但是前面push  pull 仍然可以使用域名可以正常使用。 
3.9 增加节点
 1. 在harbor 上创建一个仓库,可以设置为私有或者公开,把harbor 所需要的镜像上传到harbor中,然后修改docker-compose.yml 中的镜像地址为镜像仓库的地址。 
 
 2. 直接把其他节点的/opt/harbor 这个目录打包为harbor.tar.gz 直接copy 到其他节点上,然后解压直接运行 ./prepare   ./install.sh  运行之后使用ip 访问,确认没有问题直接直接加入到LB中  

nginx源码安装

u22e阅读(4700)

nginx安装

一、安装说明
系统环境:CentOS Linux release 7.2.1511 (Core)
系统内核:3.10.0-327.el7.x86_64
软件:nginx-1.10.1.tar.gz
其他所需软件:pcre-devel 、openssl-devel 、GeoIP-devel 、zlib-devel
安装方式:源码编译安装
安装位置:/usr/local/nginx

二、安装前提
安装nginx之前,确保系统安装了g++、gcc

1.安装pcre-devel
rewrite模块需要 pcre 库
$ sudo yum install pcre-devel -y
2.安装openssl-devel
ssl 功能需要openssl库
$ sudo yum install openssl-devel -y
3.安装zlib-devel
gzip模块需要 zlib 库
$ sudo yum install zlib-devel -y
4.安装GeoIP-devel
$ sudo yum install GeoIP-devel -y
三、安装nginx
1.创建用户
# useradd -M -s /sbin/nologin www
2.解压
# tar zxf nginx-1.10.1.tar.gz -C /usr/local/
3.进入源码包目录
# cd /usr/local/nginx-1.10.1/
4.配置
./configure \
–user=www \
–group=www \
–prefix=/usr/local/nginx \
–sbin-path=/usr/sbin/nginx \
–http-log-path=/var/log/nginx/access.log \
–error-log-path=/var/log/nginx/error.log \
–http-client-body-temp-path=/var/cache/nginx/client_temp \
–http-proxy-temp-path=/var/cache/nginx/proxy_temp \
–http-fastcgi-temp-path=/var/cache/nginx/fastcgi_temp \
–http-uwsgi-temp-path=/var/cache/nginx/uwsgi_temp \
–http-scgi-temp-path=/var/cache/nginx/scgi_temp \
–lock-path=/var/lock/nginx.lock \
–pid-path=/var/run/nginx.pid \
–with-debug \
–with-threads \
–with-http_ssl_module \
–with-http_geoip_module \
–with-http_gzip_static_module \
–with-http_gunzip_module \
–with-http_realip_module \
–with-http_secure_link_module \
–with-http_sub_module \
–with-http_stub_status_module \
–with-ipv6
5.编译安装
# make && make install
6.创建目录
# mkdir -pv /var/cache/nginx/client_temp
7.验证
# nginx -V
8.启动、重载
启动
# /usr/sbin/nginx
重载
# /usr/sbin/nginx -s reload
9.停止
查询nginx主进程号
# ps aux|grep nginx
停止进程
# kill -QUIT 主进程号
快速停止
# kill -TERM 主进程号
强制停止
pkill -9 nginx
10.测试
测试端口
# netstat -lnupt|grep 80
四、配置说明
1.安装位置

/usr/local/nginx
2.配置文件位置

/usr/local/nginx/conf
3.二进制执行文件

/usr/sbin/nginx

Docker 之 构建镜像

u22e阅读(6492)

构建镜像的两种方式,**无论哪种方式,创建新镜像都需要依赖一个已有的标准镜像文件**

1、通过Docker commit 来保存当前容器内容为一个新镜像

$ docker commit container_name new_image_name

2、通过Dockerfile文件构建新镜像
编辑Dockerfile文件

  1. #FROM必须是第一行,指明要基于哪个镜像进行构建
  2. FROM daocloud.io/centos:7
  3. #多行标签
  4. LABEL com.example.version=“0.0.1”\ com.example.release-date=“2017-05-25”
  5. #将同Dockerfile文件目录下的文件拷贝到镜像的指定目录下
  6. COPY shm.jar /usr/local/
  7. COPY jdk1.8 /usr/local/
  8. #设置镜像的环境变量
  9. ENV JAVA_HOME=/usr/local/jdk1.8
  10. ENV PATH=$JAVA_HOME/bin:$PATH
  11. #指定容器被运行时,自动执行的命令,方便服务镜像的使用
  12. CMD /usr/bin/touch /usr/local/shm.log &&\
  13.       java -jar /usr/local/shm.jar &> /usr/local/shm.log &
  14. #曝光运行该镜像容器的端口
  15. EXPOSE 9090

构建镜像

# 注意最后的 . 这个点指定Dockerfile所在的当前目录
docker build -t image_name:tag .

 

运行镜像
docker run -idt –name container_name -p port:port image_name:tag shell

docker run -idt --name mysql -p 3306:3306 local/mysql:1.0 /bin/bash