Linux 拨号vps windows公众号手机端

自建cdn系统(自己部署cdn)

lewis 2年前 (2023-07-18) 阅读数 10 #VPS/云服务器
文章标签 自建cdn系统

本文目录:

  • 1、<"http://#%E6%96%AF%E5%B7%B4%E8%BE%BE%E4%B8%BB%E6%9C%BA%E5%BB%BA%E7%AB%99%E5%A5%97cdn%E5%90%97" title="斯巴达主机建站套cdn吗" "">斯巴达主机建站套cdn吗
  • 2、<"http://#%E6%98%93%E4%BA%91cdn%E7%9A%84500%E4%B8%AA%E5%9B%BD%E5%86%85%E8%8A%82%E7%82%B9%E9%83%BD%E6%98%AF%E8%87%AA%E5%BB%BA%E7%9A%84%E5%90%97" title="易云cdn的500个国内节点都是自建的吗" "">易云cdn的500个国内节点都是自建的吗
  • 3、<"http://#%E5%9B%BE%E7%89%87%E4%B8%8D%E4%BD%BF%E7%94%A8%E6%9C%8D%E5%8A%A1%E5%99%A8%E5%B8%A6%E5%AE%BD" title="图片不使用服务器带宽" "">图片不使用服务器带宽
  • 4、<"http://#%E8%87%AA%E5%BB%BAcdn%E6%80%8E%E4%B9%88%E6%89%BE%E8%8A%82%E7%82%B9" title="自建cdn怎么找节点" "">自建cdn怎么找节点
  • 5、<"http://#%E7%94%B5%E4%BF%A1ADSL%E5%85%89%E7%BA%A4%E4%B8%8B%E8%87%AA%E5%BB%BAcentos%E6%9C%8D%E5%8A%A1%E5%99%A8%20%E9%98%BF%E9%87%8C%E4%BA%91%E6%9C%8D%E5%8A%A1%E5%99%A8%E5%8F%8D%E5%90%91%E4%BB%A3%E7%90%86%20%E5%A4%96%E9%9D%A2%E5%86%8D%E5%8A%A0%E4%B8%AACDN%20%E8%AF%A5%E5%A6%82%E4%BD%95%E6%93%8D%E4%BD%9C%E5%91%A2%EF%BC%9F" title="电信ADSL光纤下自建centos服务器 阿里云服务器反向代理 外面再加个CDN 该如何操作呢?" "">电信ADSL光纤下自建centos服务器 阿里云服务器反向代理 外面再加个CDN 该如何操作呢?
  • 6、<"http://#%E4%BA%92%E8%81%94%E7%BD%91%E6%97%B6%E4%BB%A3%E7%9A%84%E7%BD%91%E7%BB%9C%E8%87%AA%E5%8A%A8%E5%8C%96%E8%BF%90%E7%BB%B4" title="互联网时代的网络自动化运维" "">互联网时代的网络自动化运维

斯巴达主机建站套cdn吗

用斯巴达高防自建cdn.大概一周时间。各种攻击,ddcc来了。网站根本承受不住。高峰期访问越来越慢,还不如套cf了。

技术不行就不要自建了

高防的主机做节点也怕攻击?

自建我只觉得延迟大。。 和双重风险随便一个倒了就没了除非d监控

你用什么程序自建的CDN呢?

自建CDN至少也学学cf,使用anycast IP让多台server处里来自各个国家的流量,部属人机验证过滤出OK的流量再传回源站

斯巴达默认不防cc,得在产品附加里7刀升级200g L7防御,不过做cdn攻击大的话应该还是防不住

易云cdn的500个国内节点都是自建的吗

不是,有一部分是第三方的,他们在那托管的集群,你像济南节点就是在济南电信托管的,河南的联通节点是在景安,上海的是静安,怒江也有集群,其他地方的暂时不清楚。

图片不使用服务器带宽

基本分为三种:提升服务器带宽、OSS云存储和CDN加速。OSS的基础上还能进一步用CDN加速,不过费用就要进一步提升了。

1、提升服务器带宽

因为现在是在服务器里自建的文件存储系统,相当于用的是服务器本身的带宽,所以加载图片的时候会收到服务器带宽瓶颈的限制。所以可以直接加钱升服务器带宽来解决,不过要综合对比考虑一下经济性。

2、OSS云存储

OSS云存储是直接采用云存储系统,等于把这部分文件的流量拨出去了,不再受限于服务器的带宽瓶颈。但OSS本身也是有带宽瓶颈的,以及需要按流量付费。网上也有嫌OSS加载慢的,还要在OSS基础上进一步加CDN加速。由于我们本身的文件系统已经搭建起来了,如果OSS资费方面没什么优势,应该不会考虑,不然后面可能不仅要付加速的资费,还要付文件存储的资费。通过流量计费,流量小的话每天只几块钱。

CDN回流是优先调CDN,CDN缓存过期后才从OSS下载。

3、CDN加速

内容分发网络CDN(Content Delivery Network)是建立并覆盖在承载网之上,由遍布全球的边缘节点服务器群组成的分布式网络。阿里云CDN能分担源站压力,避免网络拥塞,确保在不同区域、不同场景下加速网站内容的分发,提高资源访问速度。

通俗点说,相当于把数据帮我们在就近的节点缓存。适合要求一致性不高的数据源。

一般情况下,CDN流量价格都比OSS流量价格便宜

4、资费对比

关于阿里云还是七牛的选择问题,有很多做个人博客的选择七牛云,去查了下,CDN性能比阿里云稍逊色,价格也会便宜点。

自建cdn怎么找节点

自建cdn登录CDN控制台找节点。

根据登录CDN控制台官网显示,选择左侧菜单目录服务查询点击回源节点查询即可招到节点。

CDN的全称是ContentDeliveryNetwork,即内容分发网络。

电信ADSL光纤下自建centos服务器 阿里云服务器反向代理 外面再加个CDN 该如何操作呢?

配置方法:

1、WEB服务器

域名:

IP:10.10.10.10

2、Nginx反向代理服务器

IP:192.168.0.1

操作系统:Centos

3、客户端

IP:192.168.0.2

操作系统:win7

C:\Windows\System32\drivers\etc\hosts #用记事本打开,在文件最后添加下面一行

192.168.0.1

配置步骤--Nginx反向代理服务器

1、关闭SELinux

vi /etc/selinux/config#SELINUX=enforcing #注释掉#SELINUXTYPE=targeted #注释掉SELINUX=disabled #增加:wq #保存,关闭。shutdown -r now #重启系统

2、防火墙开启80端口

vi /etc/sysconfig/iptables-A INPUT -m state --state NEW -m tcp -p tcp --dport 80 -j ACCEPT #添加内容/etc/init.d/iptables restart #重启防火墙使配置生效

3、安装编译工具

yum install wget make gcc gcc-c++ zlib-devel openssl openssl-devel pcre-devel gd kernel keyutils patch perl

4、系统约定

软件源代码包存放位置: /usr/local/src源码包编译安装位置: /usr/local/软件名字

5、下载软件

cd /usr/local/src #进入目录(一)、下载nginx(目前稳定版) wget (二)、下载pcre (支持nginx伪静态) wget #这一命令我没有获取到文件,是在本地下载好后上传到服务器(二)、下载ngx_cache_purge(清除指定URL缓存) wget

6、安装pcre

cd /usr/local/srcmkdir /usr/local/pcre #创建安装目录tar zxvf pcre-8.35.tar.gzcd pcre-8.35./configure --prefix=/usr/local/pcre #配置makemake install

7、安装Nginx

groupadd www #添加www组useradd -g www www -s /bin/false #创建nginx运行账户www并加入到www组,不允许www用户直接登录系统cd /usr/local/srctar zxvf ngx_cache_purge-2.3.tar.gztar zxvf nginx-1.8.0.tar.gzcd nginx-1.8.0./configure --prefix=/usr/local/nginx --user=www --group=www --with-http_stub_status_module --with-openssl=/usr/ --with-pcre=/usr/local/src/pcre-8.35 --add-module=../ngx_cache_purge-2.3 #注意:--with-pcre=/usr/local/src/pcre-8.35指向的是源码包解压的路径,而不是安装的路径,否则会报错make #编译make install #安装/usr/local/nginx/sbin/nginx #启动nginxchown -R /usr/local/nginx/html #设置目录所有者chmod 700 -R /usr/local/nginx/html #设置目录权限

8、添加Nginx启动文件

vi /etc/rc.d/init.d/nginx #编辑启动文件#!/bin/bash# nginx Startup script for the Nginx HTTP Server# it is v.0.0.2 version.# chkconfig: - 85 15# description: Nginx is a high-performance web and proxy server.# It has a lot of features, but it's not for everyone.# processname: nginx# pidfile: /var/run/nginx.pid# config: /usr/local/nginx/conf/nginx.confnginxd=/usr/local/nginx/sbin/nginxnginx_config=/usr/local/nginx/conf/nginx.confnginx_pid=/usr/local/nginx/logs/nginx.pidRETVAL=0prog="nginx"# Source function library.. /etc/rc.d/init.d/functions# Source networking configuration.. /etc/sysconfig/network# Check that networking is up.[ ${NETWORKING} = "no" ] exit 0[ -x $nginxd ] || exit 0# Start nginx daemons functions.start() {if [ -e $nginx_pid ];then echo "nginx already running...." exit 1fi echo -n $"Starting $prog: " daemon $nginxd -c ${nginx_config} RETVAL=$? echo [ $RETVAL = 0 ] touch /var/lock/subsys/nginx return $RETVAL}# Stop nginx daemons functions.stop() {echo -n $"Stopping $prog: "killproc $nginxdRETVAL=$?echo[ $RETVAL = 0 ] rm -f /var/lock/subsys/nginx /usr/local/nginx/logs/nginx.pid}# reload nginx service functions.reload() { echo -n $"Reloading $prog: " #kill -HUP `cat ${nginx_pid}` killproc $nginxd -HUP RETVAL=$? echo}# See how we were called.case "$1" instart) start stop) stop reload) reload restart) stop start status) status $prog RETVAL=$? *) echo $"Usage: $prog {start|stop|restart|reload|status|help}" exit 1esacexit $RETVAL:wq #保存退出chmod 775 /etc/rc.d/init.d/nginx #赋予文件执行权限chkconfig nginx on #设置开机启动/etc/rc.d/init.d/nginx restartservice nginx restart

9、配置Nginx

cp /usr/local/nginx/conf/nginx.conf /usr/local/nginx/conf/nginx.confbak #备份nginx配置文件

vi /usr/local/nginx/conf/nginx.conf

(一)、设置nginx运行账号

找到user nobody;修改为 user www www; #在第一行

(二)、禁止nginx空主机头,找到server,在上面一行添加如下内容:

server { listen 80 default; server_name _; location / { root html; return 404; } location ~ /.ht { deny all; }}/etc/rc.d/init.d/nginx restart #重启nginx 这样设置之后,空主机头访问会直接跳转到nginx404错误页面。

(三)、添加nginx虚拟主机包含文件

cd /usr/local/nginx/conf/ #进入nginx安装目录mkdir vhost #建立虚拟目录vi /usr/local/nginx/conf/nginx.conf #编辑 找到上一步添加的代码,在最后添加:include vhost/*.conf;例如:server { listen 80 default; server_name _; location / { root html; return 404; } location ~ /.ht { deny all; }}include vhost/*.conf;

(四)、添加proxy_cache参数配置包含文件

cd /usr/local/nginx/conf/ touch proxy.conf vi /usr/local/nginx/conf/nginx.conf #编辑 找到http { 在下面添加一行include proxy.conf;

(五)、添加被代理服务器列表包含文件

cd /usr/local/nginx/conf/ touch mysvrhost.conf vi /usr/local/nginx/conf/nginx.conf #编辑 找到上一步添加的代码,在下面添加一行include mysvrhost.conf;

(六)、设置nginx全局参数

vi /usr/local/nginx/conf/nginx.conf worker_processes 2; #工作进程数,为CPU的核心数或者两倍events{ use epoll; #增加 worker_connections 65535; #修改为65535,最大连接数。}以下代码在http { 部分增加与修改server_names_hash_bucket_size 128; #增加client_header_buffer_size 32k; #增加large_client_header_buffers 4 32k; #增加client_max_body_size 300m; #增加tcp_nopush on; #修改为onkeepalive_timeout 60; #修改为60tcp_nodelay on; #增加server_tokens off; #增加,不显示nginx版本信息gzip on; #修改为ongzip_min_length 1k; #增加gzip_buffers 4 16k; #增加gzip_http_version 1.1; #增加gzip_comp_level 2; #增加gzip_types text/plain application/x-javascript text/css application/xml; #增加gzip_vary on; #增加

(七)、设置proxy_cache参数配置

cd /home mkdir -p /home/proxy_temp_dir #proxy_temp_dir与proxy_cache_dir这两个文件夹必须在同一个分区mkdir -p /home/proxy_cache_dir #proxy_cache_dir与proxy_temp_dir这两个文件夹必须在同一个分区chown -R proxy_cache_dir proxy_temp_dir #设置目录所有者chmod -R 777 proxy_cache_dir proxy_temp_dir #设置目录权限cd /usr/local/nginx/conf/ vi proxy.conf #编辑,添加以下代码proxy_temp_path /home/proxy_temp_dir; #指定临时文件目录proxy_cache_path /home/proxy_cache_dir levels=1:2 keys_zone=cache_one:50m inactive=1dmax_size=1g; #设置Web缓存区名称为cache_one,内存缓存为50MB,自动清除1天内没有被访问的文件,硬盘缓存为1GB。client_body_buffer_size 512k; #增加缓冲区代理缓冲客户端请求的最大字节数proxy_connect_timeout 60; #增加连接后端服务器超时时间proxy_read_timeout 60; #增加后端服务器响应请求超时时间proxy_send_timeout 60; #增加后端服务器发送数据超时时间proxy_buffer_size 32k; #增加代理请求缓存区大小proxy_buffers 4 64k; #增加proxy_busy_buffers_size 128k; #增加系统繁忙时可申请的proxy_buffers大小proxy_temp_file_write_size 128k; #增加proxy缓存临时文件的大小proxy_next_upstream error timeout invalid_header http_500 http_503 http_404; #增加故障转移,如果后端的服务器返回502、504、执行超时等错误,自动将请求转发到upstream负载均衡池中的另一台服务器,实现故障转移。proxy_cache cache_one; #增加使用web缓存区cache_one

(八)、设置被代理服务器文件列表

cd /usr/local/nginx/conf/ vi mysvrhost.conf #编辑,添加以下代码 upstream win8net{ server 10.10.10.10:80 weight=1 max_fails=2 fail_timeout=30s;}

(九)、新建虚拟主机配置文件

cd /usr/local/nginx/conf/vhost #进入虚拟主机目录

touch #建立虚拟主机配置文件

vi #编辑

server {

listen 80;

server_name win8.net;

location /

{

proxy_pass ;

proxy_cache_key $host$uri$is_args$args; #增加设置web缓存的key值,nginx根据key值md5哈希存储缓存

proxy_set_header Host $host;

proxy_set_header X-Forwarded-For $remote_addr;

proxy_cache_valid 200 304 12h;

expires 2d;

}

location ~ .*\.(php|jsp|cgi|asp|aspx|flv|swf|xml)?$ #列出的扩展名文件不缓存。

{

proxy_set_header Host $host;

proxy_set_header X-Forwarded-For $remote_addr;

proxy_pass ;

}

access_log off;

location ~ /purge(/.*) #用于清除缓存

{

allow 192.168.190.1;

allow 192.168.21.0/24; #设置只允许指定的IP或IP段才可以清除URL缓存。

deny all;

proxy_cache_purge cache_one $host$1$is_args$args;

}

}

10、清除缓存模块使用说明

1、浏览图片文件:

2、清除这个文件缓存: #提示:Successful purge,缓存文件清除成功,如果这个文件没有被缓存过,则提示:404 Not Found

  11、配置结束

互联网时代的网络自动化运维

互联网时代的网络自动化运维

互联网上有两大主要元素"内容和眼球","内容"是互联网公司(或称ICP)提供的网络服务,如网页、游戏、即时通信等,"眼球"则是借指海量的互联网用户。互联网公司的内容往往分布在多个或大或小的IDC中,越来越多的"眼球"在盯着ICP所提供的内容,互联网公司进行内容存储的基础设施也呈现出了爆发式的增长。为了保障对内容的访问体验,互联网公司需要在不同的运营商、不同的省份/城市批量部署业务服务器用以对外提供服务,并为业务模块间的通信建立IDC内部网络、城域网和广域网,同时通过自建CDN或CDN专业服务公司对服务盲点进行覆盖。因此随着业务的增长,运维部门也显得愈发重要。他们经过这些年的积累,逐步形成了高效的运维体系。本文将结合国内互联网公司的经验,重点针对IT基础设施的新一代自动化运维体系展开讨论。

一、运维的三个阶段

● 第一个阶段:人人皆运维

在早期,一个公司的IT基础设施尚未达到一定的规模(通常在几台到几十台机器的规模),不一定有专门的运维人员或部门,运维的工作分担在各类岗位中。研发人员拥有服务器权限,自己维护和管理线上代码及业务。

● 第二个阶段:纵向自动化

随着业务量的增长,IT基础设施发展到了另外一个量级(通常在上百台至几千台机器的规模),开始有专门的运维人员,从事日常的安装维护工作,扮演"救火队员",收告警,有运维规范,但运维主要还是为研发提供后置服务。

这个阶段已经开始逐步向流程化处理进行过渡,运维部门开始输出常见问题处理的清单,有了自己业务范围适用的自动化脚本,开始利用开源软件的拼装完成大部分的工作。

具体表现为:各产品线有自己编写的脚本,利用如SVN+puppet或chef来完成服务器的上线和配置管理等工作。

● 第三阶段:一切皆自动

在互联网化的大潮中,越来越多的黑马团队应运而生,都曾有过短时间内用户访问量翻N倍的经历。在流量爆发的过程中,ICP的互联网基础服务设施是否能够很好的跟进,直接决定了业务内容能否满足海量用户的并发访问。

与此同时,运维系统需要足够地完善、高效、流程化。谷歌、腾讯、百度和阿里等规模的公司内一般都有统一的运维团队,有一套或多套自动化运维系统可供参照,运维部门与开发部门会是相互平行的视角。并且也开始更加关注IT基础设施在架构层面的优化以及超大规模集群下的自动化管理和切换(如图1所示)。

图1.大型互联网公司IT基础设施情况概览

二、BAT(百度、阿里、腾讯)运维系统的分析

国内的互联网公司百度、阿里、腾讯(以下简称:BAT)所提供的主要业务内容不同,IT架构不同,运维系统在发展过程中有不同的关注点。

1.腾讯运维:基于ITIL的运维服务管理

预计到2015年腾讯在全国将拥有60万台服务器。随着2012年自动化部署实践的成功,目前正在进行自动化验收的工作。在网络设备方面,后续将实现从需求端开始的全自动化工作:设备清单自动生成-采购清单自动下发-端口连接关系、拓扑关系自动生成-配置自动下发-自动验收。整个运维流程也已由初期的传统IT管理演进到基于ITIL的服务管理流程(如图2所示)。

图2.腾讯基于ITIL的运维服务管理

2.阿里运维系统:基于CMDB的基础设施管理+逻辑分层建模

CMDB(Configuration Management Database) 配置管理数据库(以下简称:CMDB),将IT基础架构的所有组件存储为配置项,维护每个配置项的详细数据,维护各配置项之间的关系数据以及事件、变更历史等管理数据。通过将这些数据整合到中央存储库,CMDB可以为企业了解和管理数据类型之间的因果关系提供保障。同时,CMDB与所有服务支持和服务交付流程都紧密相联,支持这些流程的运转、发挥配置信息的价值,同时依赖于相关流程保证数据的准确性。可实现IT服务支持、IT运维以及IT资产管理内部及三者之间的流程整合与自动化。在实际的项目中,CMDB常常被认为是构建其它ITIL流程的基础而优先考虑,ITIL项目的成败与是否成功建立CMDB有非常大的关系。

3.百度自动化运维:部署+监控+业务系统+关联关系

百度主要面临的运维挑战包括:突发的流量变化、复杂环境的关联影响、快速迭代的开发模式以及运维效率、运维质量、成本之间的平衡等等。百度的运维团队认为,当服务器规模达到上万台时,运维视角需要转为以服务为粒度。万台并不等于"百台*100";机器的运行状态,也不再代表业务的工作状态;运维部门为研发提供前置服务,服务与服务之间关系也随着集群的扩大逐渐复杂起来。

图3.百度自动化运维技术框架

百度的自动化运维技术框架,划分为部署、监控、业务系统、关联关系四大部分,整个框架更多突出了业务与IT基础设施的融合,注重"关联关系"的联动。所谓关联关系,主要是指任务与任务之间的时序依赖关系、任务与任务之间的数据依赖关系、任务与资源之间的引用依赖关系,分别对应到任务调度、数据传输、资源定位的服务流程中,形成了多条服务链。

关联关系的运维与业务较强相关,需要有一套系统能够理清楚关系的全貌,从而在复杂的服务链上,定位运行所在的环节,并在发生故障时预估影响范围,及时定位并通知相应的部门。在这样的一套系统中,自动化监控系统非常重要。百度的技术监控框架,主要通过数据采集、服务探测、第三方进行信息收集,进行监控评估后交给数据处理和报警联动模块处理,通过API接口进行功能扩充(如图4所示)。

图4.百度自动化技术监控框架

其实无论是BAT等互联网企业还是其他行业的企业,在IT建设中都会遵循IT基础架构库(ITIL)或ISO20000服务管理的最佳实践,采用自动化IT管理解决方案以实现重要的业务目标,如减少服务中断、降低运营成本、提高IT效率等等。随着ISO20000、ITIL v3.0的发布和推广,两者已经成为事实上的某种标准。在当今企业IT管理领域,对两个标准有着很迫切的需求。特别是ISO20000的认证要求,已经成为企业越来越普遍的需求 。ITIL v3.0包含了对IT运维从战略、设计到转换、运营、改进的服务全生命周期的管理,相关方案往往覆盖了多个领域和多个产品,规划实施和工具的选择会比较纠结。如果选择开源的工具,从CMDB开始就会遇到很多的开发工作,对于很多注重成本收益比的企业,可以参考,但由于无法保证性能与效果并不一定适用。因此,成熟的商业方案会是更好的选择。

最新的iMC V7版本,围绕资源、用户、业务三个维度进行创新,发布了SOM服务运维管理(基于ISO20000、ITIL标准)等组件,增加了对服务器的管理,能很好的满足更多互联网化的场景需求。

通常认为,一个高效、好用的配置管理数据库一般需要满足6条重要标准,即联合、灵活的信息模型定义、标准合规、支持内置策略、自动发现和严格的访问控制。企业IT基础架构的元素类型、管理数据的类型往往有较多种,如网络设备、服务器、虚拟机等,因此对于多种信息的存储需要有合适的联合的方法。虽然 iMC智能管理平台在网络设备、服务器设备等方面已经能够较好的的满足,但是随着服务器虚拟化技术的发展,虚拟机正越来越多的成为IT基础架构的一大元素。因此,针对这一需求华三通信基于CAS CVM虚拟化管理系统,对服务器CPU、内存、磁盘I/O、网络I/O等更细节的重要资源以及虚拟机资源进行全面的管理。与BAT不同,华三通信的网管软件面向全行业,目前虽然没有对域名管理等特殊资源的'管理,但是能够通过API接口等方式与特有系统进行联动,进而满足定制化运维的需求,尤其是在互联网化的场景中,针对不同的业务需求,可以实现很多定制化的对接需求,例如,iMC+WSM组件与国内某大互联网公司自有Portal系统进行了对接,打通了iMC工具与用户自有运维平台,很好的实现了架构融和。另外,与阿里的逻辑分层建模相似,H3C "iMC+CAS"软件体系在上层也做了很多的逻辑抽象、分层,形成了诸多的模块,也即是大家看到的各种组件。

三、网络自动化运维体系

"哪怕是一个只有基础技术能力的陌生人,也能做专业的IT运维;哪怕是一个只有初中学历的运维人员,也能够带队完成中小型机房节点的建设,并负责数百至上千台服务器的维护管理工作"--这是一些公司对自己IT运行维护水平的一个整体评价。看似有些夸大的嫌疑,但实际上依托于强大的IT运维系统,国内已经有不少互联网公司能够达到或者接近这一标准。

这些企业都经历了运维发展过程中的各个阶段,运维部门曾经也是被动的、孤立的、分散的"救火队"式的团队,在后来的发展过程中,IT系统架构逐渐走向标准化、模型化,运维部门建立了完整的设备、系统资源管理数据库和知识库,包括所有硬件的配置情况、所有软件的参数配置,购买日期、维修记录,运维风险看板等等,通过网管软件,进行系统远程自动化监控。运维过程中系统会收集所有的问题、事件、变更、服务级别等信息并录入管理系统,不断完善进而形成一套趋向自动化的运作支撑机制。按照云计算的体系架构,在这样一套系统中,主要的IT资源包括计算、存储、网络资源,近些年随着网络设备厂商的推动,网络设备管理方面的自动化技术也得到十足的发展。

总结来看,一个企业在进行互联网化的建设初期,就需要考虑到随着用户访问量的增加,资源如何进行扩展。具体可以细化为规划、建设、管理、监控、运维五个方面。

1.规划模型化

为了确保后续业务能够平滑扩容,网管系统能够顺利跟进,互联网企业一般在早期整体系统架构设计时便充分考虑到标准化、模型化,新增业务资源就好比点快餐,随需随取。

标准化:一是采用标准协议和技术搭建,扩展性好,使用的产品较统一,便于管理;二是采用数据中心级设备,保证可靠性、灵活性,充分考虑业务系统对低时延的要求。

模型化:基于业务需求设计网络架构模型,验证后形成基线,可批量复制,统一管理,也适宜通过自动化提高部署效率、网管效率。

图5.常见互联网IDC架构

2.建设自动化

互联网IT基础设施具备批量复制能力之后,可以通过自动化技术,提高上线效率。在新节点建设过程中,3~5人的小型团队即可完成机房上线工作。例如某互联网公司某次针对海外紧急业务需求,一共派遣了2名工程师到现场进行设备安装部署和基本配置,而后通过互联网链路,设备从总部管理系统中自动获取配置和设备版本,下载业务系统,完成设备安装到机房上线不超过1周时间。

要达到自动化运维的目标,建设过程中需要重点考虑批量复制和自动化上线两个方面(如图6所示)。

批量复制:根据业务需要,梳理技术关注点,设计网络模型,进行充分测试和试点,输出软、硬件配置模板,进而可进行批量部署。

自动化上线:充分利用TR069、Autoconfig等技术,采用零配置功能批量自动化上线设备,效率能够得到成倍提升。

图6.批量配置与自动化上线

○ Autoconfig与TR069的主要有三个区别:

○ Autoconfig适用于零配置部署,后续一般需要专门的网管系统;TR069是一套完整的管理方案,不仅在初始零配置时有用,后续还可以一直对设备进行监控和配置管理、软件升级等。

○ Autoconfig使用DHCP与TFTP--简单,TR069零配置使用DHCP与HTTP--复杂,需要专门的ACS服务器。

安全性:TR069更安全,可以基于HTTPS/SSL。

而H3C iMC BIMS实现了TR-069协议中的ACS(自动配置服务器)功能,通过TR-069协议对CPE设备进行远程管理,BIMS具有零配置的能力和优势,有灵活的组网能力,可管理DHCP设备和NAT后的私网设备。BIMS的工作流程如图7所示。

图7.H3C iMC BIMS工作流程

3.管理智能化

对于网管团队而言,需要向其他团队提供便利的工具以进行信息查询、告警管理等操作。早期的网管工具,往往离不开命令行操作,且对于批量处理的操作支持性并不好,如网络设备的MIB库相比新的智能化技术Netconf,好比C和C++,显得笨拙许多。因此使用的角度考虑,图形化、智能化的管理工具,往往是比较受欢迎。

智能化:使用新技术,提升传统MIB式管理方式的处理效率,引入嵌入式自动化架构,实现智能终端APP化管理(如图8所示)。

图8.消息、事件处理智能化

● Netconf技术

目前网络管理协议主要是SNMP和Netconf。SNMP采用UDP,实现简单,技术成熟,但是在安全可靠性、管理操作效率、交互操作和复杂操作实现上还不能满足管理需求。Netconf采用XML作为配置数据和协议消息内容的数据编码方式,采用基于TCP的SSHv2进行传送,以RPC方式实现操作和控制。XML可以表达复杂、具有内在逻辑、模型化的管理对象,如端口、协议、业务以及之间的关系等,提高了操作效率和对象标准化;采用SSHv2传送方式,可靠性、安全性、交互性较好。二者主要对比差异如表1所示。

表1 网管技术的对比

● EAA嵌入式自动化架构

EAA自动化架构的执行包括如下三个步骤。

○ 定义感兴趣的事件源,事件源是系统中的软件或者硬件模块,如:特定的命令、日志、TRAP告警等。

○ 定义EAA监控策略,比如保存设备配置、主备切换、重启进程等。

○ 当监控到定义的事件源发生后,触发执行EAA监控策略。

4.监控平台化

利用基本监控工具如Show、Display、SNMP、Syslog等,制作平台化监控集成环境,实现全方位监控(如图所示)。

;

【自建cdn系统】内容来源于网络,若引用不当、侵权,请联系我们修正或者删除!

版权声明

本文仅代表作者观点,不代表米安网络立场。

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

热门