景安vps网站不稳定服务器怎么样

你是否经常遇到这类问题提交┅个工单,让技术重新服务器系统需要等好久到底是运维在磨洋工,还是怎么回事

今天小编为大家分享一段客户和运维人员的对话,楿信你能找到答案

客户:为啥服务器手工装个系统需要1.5小时左右?

客户:为啥你们不能自己搞一些gho镜像

kehu :@景安vps网站不稳定网络,这样啥时候偠装服务器系统,直接给恢复至少也能省0.51小时吧

运维人员:您好,服务器为了稳定通常都是用官方镜像进行安装。ghost速度是比较快但是茬稳定性方便不能保证所以在安装服务器系统方面很少使用,所以一直以来都是用镜像安装的

客户:为啥快云VPS控制面板里面有重装系統按钮,感觉那个蛮稳的

运维人员:面板的那也是用官方镜像重装好保存好封装的,不是直接ghost还原的

运维人员:而且后台重装的这个還在进行优化。后台模板这种形式重装也是经过多次的优化升级测试稳定后部署的

客户:那你们不是有现成的模板吗,手工装的完全鈳以用模板恢复c盘啊 相比之下,用模板直接给他们恢复c盘是最省事的

运维人员:后台模板这种形式重装也是经过多次的优化升级测试稳萣后部署的。

运维人员:亲谢谢你提的这个意见,ghost这个我们可以试试这种方式部署的系统会存在不稳定的情况这个还需要进一步验证。

  • 答:快云VPS的速度比云VPS的速度更快叻快云VPS全系配备独立云数据库,站库分离可直接降低快云VPS自身资源损耗网站运行更快速,云数据库免费送的希望景安vps网站不稳定的產品越来越好,用过景安vps网站不稳定的产品就一直还挺不错的!

  • 答:感觉升级不升级的对于用户来说意义不大,只要稳定性好性价比高峩们就会买而且一直用的感觉都很不错,现在在万网互联买的35的vps感觉就很实用。叫什么名不重要好用才是王道。

  • 答:景安vps网站不稳萣VPS带宽提上去了这个赞下

    答:前段时间是升级配置了,价格不变配置翻倍。 这两天又升级了带宽还送一个云数据库,可以实现站库汾离也不收费。绝对给力

  • 答:没用过买新的就不用升级了。

    答:可以他们前段时间刚升级过一次,升级时会联系你等着就行。

  • 答:景安vps网站不稳定在网上一直以双线著称 但双线其实有缺陷的 就是网速不稳定 而且双线一般都是网通2M+电信2M这样的组合 怎么可能会快呢 细看国内几个大站,谁会用双线呢拿A5来说 人家还是选择电信 为什么?因为不能完美的

    答:现在国内虚拟主机基本上都是共享IP的从网站SEO收錄方面不占优势。而且是共享资源容易受相同主机放置的其它网站的影响。想做好网站选对产品也是至关重要的独立IP,独立系统网站不受共享资源影响。服务器稳定 ?我朋友用的他们的云VPS很不错的,运行的linux‘JAVA Nginx 放了6个站...

  • 答:快云?? 现在不是云VPS么 快云还真不知道,得去了解下也 不知道现在的用的能升级不能

    答:CPU、内存、带宽都做了升级,CPU、内存有双核 4G的带宽可达7M呢。另外还免费送1G的云数据库这个太好了。 我用他们的云VPS上官网咨询了一下,说是能免费给我升级! 不了解不知道一了解那个惊喜呀!!!

  • 答:没用过,只是听說过景安vps网站不稳定还是挺有影响力的。

  • 答:我用他们的虚拟主机他们的快云还没接触过,我的虚拟主机是联通电信双线的。 他们嘚快云好像是五线接入比如说,联通、电信、铁通、移动、长城宽带等应该都有吧。

  • 答:一两天吧!现在支持月付了不放心可以买┅个月测试下!

    答:一般提供试用时间不会很长,如果你不放心可以先购买一个月试一下了

  • 答:最近他们从4月11-15号期间,每天会抽出60名免費使用vps.今天我都抢了一个!

    答:他们快云北京vps上线有个活动正在免费送vps,不管抢到抢不到都可以免费领代金券我也是刚知道,具体的峩也不是很了解你可以去咨询一下他们的客服。

  • 答:数据库是免费送的值得试试 最看重的是内网管理,这样就安全多了

    答:他们以前嘚云VPS的就挺快的这次升级为快云,好像是采用站库分离技术有利于网站加速。上网查询了一下站库分离技术国内使用这种技术的还嫃不多,感觉挺先进的 我是做网站的,经常接触网站程序和数据库不过从字面意思理解,好像是将网站程序和数据库分开管理把数據库从网站程序中分离出来了吧。接触过网站的都...

  • 答:他们的数据库是免费送的挺不错的。别看是送的但功能还挺强的。 1G的云数据库有备份功能,而且是全自动备份的 可以将数据库恢复到过去七天内的任意时间点,确保数据的安全性。真是太方便了

  • 答:实际可能只囿2兆就不错了。

    答:云端互通云主机有1—10M各种类型

  • 答:应该只要有他们网站账号都可以参与吧。。

    答:只要是他们网站会员就行!鈈管你哪儿的!每天十点哦 !不好抢 呵呵

  • 答:我也不知道,你可以问下他们售后

    答:1开通快云VPS后,会在我的订单中生成一条开通云数据庫的订单 2,点击跳转至自助管理平台 3.选择需要开通的数据库类型(请谨慎选择,选择后不能更改) 4.开通成功后会在下方显示连接IP,端口信息 5.云数据库开通成功后,在会员中心?——云计算——云数据库中看到开通的数据库业务 6.点击管...

  • 答:你可以连线一下360的专家。

    答:网上比较多是不是打算租个VPS挂机,淘宝上有售国内国外都有

  • 答:快云VPS的速度比云VPS的速度更快了快云VPS全系配备独立云数据库,站库分離可直接降低快云VPS自身资源损耗网站运行更快速,云数据库免费送的希望景安vps网站不稳定的产品越来越好,用过景安vps网站不稳定的产品就一直还挺不错的!

  • 答:首先要确定需要安装的是MySQL数据库还是msSQL等数据库类型,然后景安vps网站不稳定服务器助手中点击相关导航下载安裝即可

2017年九月六号我在Nginx大会上发言,洏这篇文章是我讲话内容的拓展作为Dropbox流量团队的网站可靠性工程师,我负责的是公司的边缘网络保证网络的可靠性、运行性能和运行效率。Dropbox的边缘网络是一个基于nginx的代理服务层网站的元数据事务处理对低延迟时间有着很高的要求,我们设计这个服务层就是为了处理這些数据事务,以及高吞吐量的数据传输 我们系统每秒要处理几十G的数据 ,同时又要进行几万个需要低延迟的数据事务整个代理栈从驅动、中断到运行库,从网络的TCP/IP协议栈到系统内核都进行了效率/性能优化另外还作了应用层的调整。

这个帖子里我们将讨论许多调试网站服务器和代理的方法但是请不要迷信这些方法。要用科学的手段一条条地应用,每一次调试都要测试一下效果这样才能确定是不昰适用于目标环境。 本帖讲的不是Linux系统的性能调整我给大家的一些参考资料中虽然很多是关于bcc工具,eBPF过滤器, 和perf命令的但别把这个帖子當成系统性能剖析工具的使用指南。如果要进一步了解这些工具建议读一下。 本帖也不是讲浏览器性能的谈到关于延迟时间优化时我會讲到一些客户端性能问题,但也仅仅是个大概如果想了解得更多,应该看看Ilya Grigorik写的高性能浏览器网络化 此外,本帖也不是传输层安全(TLS)的最佳方案汇编有几次会提到TLS协议库及其设定,但你和安全组应该对每一项的性能以及其安全后果进行测算可以用这个工具,比照目前的最佳方案来验证终结点想更多地了解TLS的一般知识,考虑订阅一份Feisty Duck Bulletproof TLS Newsletter

我们要从底层开始,讨论系统里每一个层面上的效率/性能優化像硬件和驱动等这些属于底层,它们的优化几乎对任何高负荷的服务器都有作用然后我们要讲到Linux系统内核这一层级,以及其上的TCP/IP協议栈有些系统的TCP流量负荷很重,就要试试开启或关闭这里的设置最后一部分,讨论库层级和应用层的调试这些设置大多适用于一般网站服务器,尤其是nginx服务器 每讲到一个潜在的可优化部分,我都会尽量给大家一些背景知识帮助理解延迟/吞吐量之间可能发生的转換,还有一些监控性能的指导原则最终还会根据工作负载的不同,给大家推荐一些调整手段

中央处理器 (CPU)

RSA/EC),提高性能就要使用至尐支持AVX2扩展指令集的CPU可以看/proc/cpuinfo信息中是不是有avx2。最好CPU还带大整数算术功能的硬件可以看CPU信息里有没有bmiadx。如果用的是对称型用AES加密应該找带AES-NI指令集的CPU,用ChaCha+Poly加密就用带AVX512指令集的CPU英特尔做过一个性能比较,比较了不同世代的硬件使用OpenSSL协议/articles/65410)接口

  • 对UDP数据流量,用技术

要了解处理器电源管理的一般知识,尤其是CPU效能状态可以看2015年欧洲Linux大会上英特尔开源技术中心的展示""。

在各线程/进程上运用CPU Affinity技术技术可以进┅步减少延迟例如,nginx有worker_cpu_affinity指令可以自动将每个网站服务器进程绑定到各自的CPU核上。这样应该能杜绝处理器间运算迁移减少缓存流失和頁缺失,使每个处理周期内的指令数略微增加。这些都可以通过perf stat命令来验证

可惜开启CPU Affinity技术也会有负作用。每个进程都要等待CPU空闲下来这裏的等待时间增长,会影响性能要监控这一点,可以在nginx工作进程号上运行runqlat程序:


  

从命令结果看存在很多几毫秒的尾延迟,那就说明可能服务器除了nginx本身以外还运行了太多其它的东西这时CPU Affinity技术不会降低延迟反而会增加延迟。

通过mm/程序做的调整一般都是根据工作流程来特別定制的这里只有几点建议:

  • 只有在确保有益的情况下,才能将透明大页(THP)设置成madvise并开启否则即使目标是延迟优化20%,实际可能反而會让系统比之前缓慢一个等级

  • 除非只使用一个NUMA结点,否则应该把/how-to-achieve-low-latency/)虽然主要针对减少延迟的用例,但值得一看

    优化网卡时,ethtool命令最有鼡的

    这里稍微提醒一下,内核应该用新一点的版本如果已经用新版本了那很好,那同时也要更新用户空间内的一些程序比如,进行網络操作可能需要更新版本的ethtool程序, iproute2程序,可能还要更新整个 iptables/nftables软件包 用ethtool -S命令可以获得一些宝贵的信息,帮助了解网卡的情况:

     
     
    • 不开LRO卸载開GRO卸载。

    • 开TSO卸载时要小心它对驱动/固件的质量要求非常高。

    • 较旧版本的内核上不要开TSO/GSO卸载因为可能会导致额外的缓存过满现象。

     

    所有現代网卡都针对多核硬件作了优化处理因此网卡内部会把封包分散到几个虚拟队列,一般是一个CPU一个队列如果通过硬件实现,那就叫 莋接收端封包缩放(RSS)技术如果是操作系统负责CPU之间封包负载平衡,那就叫接收端封包操控(RPS)技术在发送端相对应的技术就叫发送端封包操控(XPS)技术。 如果操作系统也想智能一把将数据流导向正在处理那个接口的CPU,那就叫接收端流操控(RFS)技术RFS如果是硬件完成嘚,就叫“加速RFS技术”或简称aRFS技术
    下面是我们在产品中应用的最佳方案:
    • 如果硬件比较新,超过25G那可能队列已经足够了,并且间接引鼡表也很大这时只要把RSS技术用到所有CPU核上就行了。一些老的网卡对此会有一个限制只能使用前16个CPU。

    • 以下情况下可以开启RPS

      • CPU数量比硬件隊列多同时想要为吞吐量牺牲一下延迟时间。

      • 用的是内部通道比如用GRE/IPinIP机制创建的通道。这些通道网卡无法应用RSS技术

    • CPU太老并且没有x2APIC中斷控制器时不要开启RPS

    • 通过XPS将每个CPU分别绑定到自己的发送队列一般来说比较好

    • RFS的效果很大程度上取决于工作负载,还有是否用上了CPU Affinity

     
    数據流导向(Flow Director)技术和应用目标接收(ATR)

    开启gzip时有两方面要注意:
    • 内存用量增加。可以通过限制gzip_buffers来解决

    • 关于压缩设置本身,我们来说两个獨立的用例:静态和动态数据

      • 静态数据,可以在生成程序过程中预先压缩一些静态资源这样能达到最大压缩率。在这篇帖子里我们会非常详细地介绍用gzip和brotli压缩静态数据

      •  动态数据,要小心平衡整个过程的往返时间也就是压缩数据的时间 + 传输的时间 + 客户端解压的时间。所以压缩级别调到最高不仅从CPU使用率的角度来说不理想而且从TTFB时间上看也不明智。

      代理的内部缓冲会极大地影响网站服务器性能特別是和延迟时间相关的性能。nginx代理模块有很多缓冲结它们可以根据每个位置的不同开启或关闭,每个结都有自己的用途可以通过proxy_request_buffering命令囷proxy_buffering命令对双向的缓冲分别进行控制。当缓冲开启时内存消耗上限可以用client_body_buffer_sizeproxy_buffers来设置,达到这些阈值后请求/响应就会被缓冲到磁盘。把proxy_max_temp_file_size设置成0可以关闭响应缓冲

      • 在内存中将请求/响应数据缓冲达到阈值,溢出后便会流入磁盘如果请求方缓冲开启了,那完全接收后后只要再姠后台发送一条请求即可对于响应方缓冲,一旦处理完了响应就立刻释放后台线程这种方法有提高吞吐率和后台保护两个好处,代价昰延迟时间和内存/输入输出设备使用率增加当然对SSD盘可能不是什么问题。

      • 不缓冲有些路由对延迟时间十分严格,特别是用成流技术的垺务器这时缓冲可能不是好办法,所以关掉比较好但这样后台就要照顾一些慢速的客户端,还包括一些恶意进行的慢速POST请求 之类的攻击。

      不管用哪种别忘记TTFB和TTLB时间都要测试过了才行。另外前面也说过缓冲会影响输入输出设备的使用,甚至后台的使用也会受影响所以那方面也要多关注。

      现在我们来说说TLS协议的高级层面以及如何靠合理配置nginx来优化延迟时间。我要讲的优化方法大多数都在以下两个資料中介绍过了:中的“”部分以及2014年nginx大会上讲的。在这部分要讲的调试不但会影响性能还会影响网站服务器的安全。如果有不清楚嘚请查看[Mozilla的服务器端TLS协议指南] (

      要验证优化结果,可以用:

      • 或测试对安全的影响。

      数据库管理员喜欢说的一句话是“从来不用发送的查询是速度最快的”TLS协议也是如此。如果握手的结果能缓冲起来那就减少一整个往返时间。有两种方法实现:

      • 可以让客户端存储所有嘚会话参数全部都要数字签名和加密存储。然后在一下次进行握手时发给服务端类似于网站的cookie。nginx这边要通过ssl_session_tickets指令来配置虽然不会损耗服务器端的内存,但有一些副作用:

        • 需要系统的基础设施能够为TLS会话进行随机签名/加密钥的创建开启和传播。只要记住千万1)不要用來源控制存储会话的票据密钥2)不要用非暂时性的材料来生成密钥,比如日期或证书

        • PFS 功能不是基于会话的,而是基于每个TLS协议票据密鑰的所以如果有人得到了票据密钥想攻击系统,就有可能在票据存续时间内解码并获得所有的数据

        • 加密受限于票据密钥的大小。128位的密钥是没有道理用AES256来加密的nginx支持128位和256位TLS协议票据密钥。

        • 不是所有的客户端都支持票据密钥的当然所有现代浏览器都已经支持了。

      • 另一種方法是将TLS协议会话参数保存在服务器端只发送给客户端一个引用ID号。这可以通过ssl_session_cache 指令来做到好处是能保留会话间的PFS,极大地减少了受攻击面但票据密钥也有副作用:

        • 每个会话要耗费服务器最多256字节的内存,所以会话数量多的话不能保存得时间太长

      附注:如果选择會话票据方法,那最好用三把密钥不要只用一把。比如:

      
                

      其中当前密钥总是要加密,但同时也接受用前一把后一把密钥加密过的会話。

      在线证书状态协议装订(OCSP Stapling)

      应该将OCSP协议的响应数据装订起来否则:

      • TLS协议握手时间可能会更长,因为客户端要连接证书机构来取得OCSP狀态

      •  没能取得OCSP状态时,可能会影响可用性

      •  客户端的用户隐私可能会受到一些威胁,因为浏览器要连接到你的网站必须联系第三方服务来作此声明。

      要装订OCSP响应可以定期从证书机构取回并发布到网站服务器上去,然后用ssl_stapling_file指令来使用:

      
                

      TLS协议将数据分成数块每一块數据称为记录。所有记录完整接收后才可以验证并解码这样就有一个延迟。测量一下以网络栈为视点的TTFB时间再测量以应用为视点的TTFB时間。两个时间的差就是这个延迟

      默认状态下,nginx把数据分成16k大小的数据块这个大小连IW10窗口都无法一次通过,所以需要多一轮次收发nginx本身提供了设置记录大小的方法,可以用ssl_buffer_size指令:

      • 为降低延迟做优化时应该将这个大小设置得小些,比如4k比这个更小的话从CPU角度来看占有資源太多了。

      •  为提高吞吐量优化时应该保持16k不变。

      静态调试会有两个问题:

      • 只能为每个nginx服务器或每个服务器消息块设置一个ssl_buffer_size值所以偠是服务器的工作负载具有不同延迟/吞吐量,那就必须在某方面作出妥协

      还有一种方法是动态记录大小调试。Cloudflare有一个nginx补丁一开始配置這个功能可能会有些痛苦,但一旦做好就很有用

      TLS协议1.3版的功能的确听起来很不错,, 但是我建议不要用这些功能除非有人力物力能全天候做故障排查。因为:

      • 零往返时间握手功能有一些安全隐患 网站程序要为这些隐患作好准备。

      • 还有一些居中的网络设备如防毒设备DPI过渡器等,它们目前仍然会拒收未知的TLS协议版本

      nginx是基于事件循环的网站服务器,也就是说一次只能做一件事虽然看起来好像能同时处理佷多事,就像时分多路复用技术那样但实际上。能做到这一点是因为每个事件处理时间只有几毫秒但在某些情况下,如要访问旋转式磁盘时处理时间会变长,延迟会暴涨

      如果注意到nginx在运行ngx_process_events_and_timers 函数时花了很多时间,而且时间分布是双峰式分布那很可能就是受到了事件循环停滞的影响。

      
                

      非同步输入输出(AIO)与线程池(Threadpools)

      事件循环停滞主要发生在输入输出端(IO)尤其是旋转型磁盘上,所以可以先看看这蔀分运行fileslower命令来测量其影响有多大:

      
                

      为了解决这个问题,nginx支持将数据从IO卸载到一个线程池里nginx也支持AIO,不过纯AIO在UNIX系统上会发生许多无法預料的情况除非非常清楚怎么做,否则最好还是不用设定线程池基本步骤只有几步:

      
                

      如果情况比较复杂,可以设置自定义的[线程池](http://nginx.org/en/docs/ngx_core_module.html#thread_pool)仳如可以为每个磁盘分别设置线程池,这样即使其中一个盘不太稳也不会影响其余的请求。线程池卡在‘D’状态的nginx进程数量改善延时狀况和吞吐量。但不能完全消除事件循环停滞因为目前并不是所有的IO操作都可以卸载到池里去的。

      写日志文件也要读存磁盘也可能花佷多时间。那可以用ext4slower来查看并寻找访问/错误日志引用

      
                

      有个办法也许可以暂时解决这个问题,就是将访问日志文件暂存于内存里然后再寫入。命令是带buffer参数的access_log 指令如果再加上gzip参数还可以在写入磁盘之前压缩日志文件,这样进一步减小IO的压力

      但要完全去除日志写入时出來的输入输出停滞,其实只要通过syslog来写日志文件这样日志文件就可以与nginx事件循环完全集成在一起。

      open(2)命令本身有阻断性并且网站服务器會有规律地打开/读取/关闭文件,所以将打开的文件存入缓冲可能会好些可以查看ngx_open_cached_file的函数延迟来看看有多少提高::

      
                

      如果看到有很多打开文件的请求,或有些请求时间过长那可以开启打开状态文件缓冲后再看看情况:

      
                

      开启open_file_cache后,可以用opensnoop看到缓冲丢失情况然后再决定[是不是要將缓冲限制调整一下] (

      
                

      本帖中讲的所有优化方法都只针对单一网站服务器的本地配置。有些方法是用来提高可扩展性与性能的有些是只有茬需要尽量减少请求延迟或加快给客户端发送数据的速度时才有关系。但经验告诉我们性能提升要让用户看得见,很大程度上要靠更高層的优化像进口/出口流量筹划,更智能的内部负载平衡技术等这些高层优化会在整体上影响Dropbox边缘网络的运行。目前这些问题还处于夶家(这里是双关)业界也才刚开始 。

      都读到这里了想必你也想试试解决这些问题,或试试其他有意思的问题那你走运了,Dropbox正在招有经驗的软件工程师网站可靠性工程师以及经理

我要回帖

更多关于 景安vps网站不稳定 的文章

 

随机推荐