『云计算』千锋云计算毕业设计论文:高并发大型互联网站架构设计前言


每年进入3-4月所有的高等院校开始了一年一度的毕业生答辩准备阶段 , 现如今毕业论文或者毕业设计也更加的贴近了互联发展的趋势 , 很多学校开始做最热话题云计算openstack架构的实现以及云计算环境搭建 , 先不说这个毕业设计的切入点是否正确 , 就说选择该题目后你如何下手?下面给大家分享千锋讲师给学员准备的千锋云计算毕业设计论文:高并发大型互联网站架构设计前言 。
『云计算』千锋云计算毕业设计论文:高并发大型互联网站架构设计前言
本文插图
1.1前言:
在互联网发展初期 , 我们的服务大多都搭建在一台服务器上 , 但是随着经济的快速发展 , 我们所使用的网速也在不断地提高:从20多年前的有线电话和猫 , 再到2000年的ADSL带宽加速 , 到2011年的光纤、WiFi、4G网络 , 及我们即将要进入的5G时代 , 我们国家实现了网络从无到有 , 网速从每秒约7k的下载速度到每秒4-5G的下载速度 , 可谓是快如闪电啊!网速的大大提高也造成了互联网行业的PV量(page view访问量)大大增多 , 尤其以百度 , 天猫 , 新浪等网站为代表 , 这个时候我们单台服务器或者少数服务器已经承受不住现在的压力 , 所以高并发大型互联网站的架构设计就显得尤为重压了 。
大型互联网站往往具有高并发 , 大流量等特点[2] 。 其实大多数的大型网站在刚开始时规模并没有很大 , 而是随着业务量的增大慢慢扩展的 。 谷歌的第一台服务器部署在斯坦福大学的实验室里;脸书是扎克伯格在哈弗大学的宿舍里开发;阿里巴巴是在马云家的客厅里诞生的[3] 。
大型网站分为三类:电商网站、视频网站和大数据搜索网站 , 以京东、淘宝、优酷、百度、新浪为代表 , 来设计网站的架构 , 从而使得本次的设计无限接近现实场景[4] 。
1.2 高并发
并发是指在一定的时间段内同时访问服务器的数量 , 高并发(High Concurrency)是指客户端同时访问网站的数量超过服务器本身所承载的并发量 , 通常我们会通过架构设计及调优等操作 , 使我们的服务器能够较好的应对高并发的情况[2] 。
高并发经常会有一些相关指标 , 如响应时间、吞吐量、每秒查询率QPS、并发用户数、PV量、UV量[11] 。
【『云计算』千锋云计算毕业设计论文:高并发大型互联网站架构设计前言】高并发是一个相对的概念 , 不是一个绝对的概念 , 一般来说 , 一台Apache服务器所能承受的并发量为200左右 , 如果我们的并发量在一定时间内超过这个连接数 , 那么就称之为高并发 。
1.3 高可用
高可用性HA(High Availability)的出现是为了避免单节点故障 , 提升服务的可用性[9] 。 其目的在于保障系统7*24小时不间断服务 , 架构的高可用技术点主要在于避免单节点故障 , 设计架构的核心准则是冗余 , 也叫集群化 。
1.4 架构
一个网站的架构并不是单一模式的 , 而是根据一个公司的业务范围和业务量所决定的 。 所以好的网站架构并不是一样的 , 而是根据其公司的业务特点而设计的 。
一个成熟的大型互联网站的系统架构并不是一蹴而就的 , 它是随着公司的发展而发展的 。 在这个过程中 , 开发模式、技术架构、设计思想也发生了很大的变化[7] , 技术人员也会随之增多 。 由于公司的业务特点不同所以其架构也会做相应的调整 , 如电商网站就要在搜索、下单、支付等方面做相应处理 , 而实时聊天工具就要解决信息的实时传输问题 。
本文结合实际应用 , 运用现今主流技术如Nginx proxy+Keepalived实现七层负载均衡 , 使用Apache实现Web功能 , 使用Galera来做MySQL的高可用 , 使用Redis做缓存数据库 , 使用Zabbix监控主机状态 , 使用自动化运维工具来提高运维工作的效率 。 本文做了以下的工作:
1.使用负载均衡和冗余技术来应对大流量 , 突发性的事件 , 实现网站的高可用;


推荐阅读