Web——面试题整理

x33g5p2x  于2021-10-20 转载在 其他  
字(3.2k)|赞(0)|评价(0)|浏览(497)

1.HTTP 1.0 和1.1区别

HTTP1.0:每次传输都要建立三次握手,每一次都要重新建立链接(短连接)
HTTP1.1:建立一次三次握手以后可以一直传输(长连接)

2.web1.0和web2.0的区别

web:全球广域网,也称万维网,一种分布式图形信息系统,建立在Internet上的一种网络服务
web1.0:以编辑为主

web2.0:以交互为主

3.LAMP

对接

  • L——>底座
  • Apache ——>对接PHP——>PHP对接Mysql

Apache 通过设置配置文件中相关的连接保持参数来开启与控制连接保持功能
*
httpd 服务通过 Order、Allow from 、Deny from 配置项实现客户机地址访问控制
*
为网站目录设置用户授权时,需先通过htpasswd 工具创建用户认证数据文件
*
httpd 服务器的日志文件包括访问日志 access_log 与错误日志 error_log

Ningx:

4.httpd和nginx区别

首先nginx与httpd 以静态页面+动态页面转发的功能上比较类似,但是nginx优势在于

①抗高并发 ②轻量级 ③性能稳定

5.nginx的配置文件中包含的模块从全局——具体匹配的URL,分为几种

①全局模块

在此模块中定义的内容,会生效于所有配置

②http

应用于 用户以http方式访问nginx这个过程

③server服务

适用于通过端口、IP、域名的访问方式的请求

④location——URL www.xjj.com/index.html

6.nginx接受最大并发,受什么限制?最大文件打开数是多少?

受CPU和最大文件打开数的影响;最大文件打开数是65535

7.Linux系统对文件打开的数量有最大的限制,通常设置为1024,这个数值很容易会达到,从而造成系统程序或系统的瓶颈,如何去设置呢?

两种修改方式,以下是临时
①如提高每个进程的连接数还需执行"ulimit -n 65535"(临时调整)命令临时修改本地每个进程可以同时打开的最大文件数。
②在Linux平台上,在进行高并发TCP连接处理时,最高的并发数量都要受到系统对用户单一进程同时可打开文件数量的限制,可使用ulimit -a命令查看系统允许当前用户进程打开的文件数限制

8.Nginx 服务–虚拟主机

基于域名、基于IP、基于端口

9.NG优化

防盗链
隐藏版本——>①配置文件 ②源码-——>需要重新编译安装
修改用户和组
缓存时间
日志分割
网页压缩——>gzip——>管理压缩比、最小压缩对象的大小、压缩保存的缓冲区个数和大小、前端缓存是否保存——>临时缓存文件/目录的权限调整
连接超时
FPM
work工作进程资源分配
虚拟主机基于: IP/端口/域名

10.Nginx有哪些模块

status
rewrite
FPM
virtual_ host虚拟主机
gzip
tokens off

11.配置文件组成

global 全局模块配置
http { } 模块配置
server 模块
location 匹配URL 和 路径

rewrite

12.比较rewrite和location

相同点:都实现跳转

不同点:rewrite是在同一域名内更改获取资源的路径

location是对一类路径做控制访问或反向代理,还可以proxy_pass到其他机器

13.rewrite会写在location里,执行顺序

执行server块里面的rewrite指令
执行location匹配
执行选定的location中的rewrite指令

14.location优先级是怎么排列的?

匹配某个具体文件
(location = 完整路径) > (location ^~ 完整路径) > (location ~/* 完整路径) > (location ~ 完整路径)> (location /)
用目录做匹配访问某个文件
(location = 目录) > (location ^~ 目录) > (location ~ 目录) > (location ~/* 目录)> (location /)

15.文件、目录为什么只会在区不区分大小写上会有变动

正则表达式:目的是为了尽量精确的匹配
文件——>尽量精确匹配,区分大小写 精确,不区分更为精确
目录——>尽量精确匹配,区分大小写 更为精确,优先级更高

16.rewrite跳转使用场景:

①rewrite

②location:主要功能proxy_pass

③if :location下,只支持单分支不支持多分支

17.nginx中必备一些location规则

①location / {} 加快加载速度

②location /static {} 静态请求匹配

③location 反向代理 反向跳转到配置文件中upstream tomcat_server地址池中,获取发送到后端节点的“目标_IP",跳转的方式直接使用proxy_pass http://tomact_server (函数名)

Tomcat

①Tomcat 服务器是一个免费的开放源代码的 Web 应用服务器,属于轻量级应用服务器,在中小型系统和并发访问用户不是很多的场合下被普遍使用,是开发和调试 JSP 程序的首选

②在安装 Tomcat 之前必须先安装JDK。server.xml 为 Tomcat 的主要配置文件,通过配置该文件,可以修改 Tomcat 的启动端口、网站目录、虚拟主机、开启https等重要功能

③可以将两个或多个Tomcat server 放到 Nginx 的 upstream 中组成一个负载均衡集群,然后通过 proxy_pass 这种 Web 代理的方式在 location 中设置集群站点,然后再通过 weight 值来分别对 Tomcat server 进行权重的设置

④在生产环境中,Tomcat server 的硬件配置可能不尽相同,可以通过修改相应服务器的 weight 值,对配置较高或配置较低的服务器的访问请求进行分配控制

②在安装 Tomcat 之前必须先安装JDK。server.xml 为 Tomcat 的主要配置文件,通过配置该文件,可以修改 Tomcat 的启动端口、网站目录、虚拟主机、开启https等重要功能

③可以将两个或多个Tomcat server 放到 Nginx 的 upstream 中组成一个负载均衡集群,然后通过 proxy_pass 这种 Web 代理的方式在 location 中设置集群站点,然后再通过 weight 值来分别对 Tomcat server 进行权重的设置

④在生产环境中,Tomcat server 的硬件配置可能不尽相同,可以通过修改相应服务器的 weight 值,对配置较高或配置较低的服务器的访问请求进行分配控制

⑤可将两个或多个Tomcat server 放到 Nginx 的 upstream 中组成一个负载均衡集群,然后通过 proxy_pass 这种 Web 代理的方式在 location 中设置集群站点,然后再通过 weight 值来分别对 Tomcat server 进行权重的设置。

⑥在生产环境中,Tomcat server 的硬件配置可能不尽相同,可以通过修改相应服务器的 weight 值,对配置较高或配置较低的服务器的访问请求进行分配控制

优化:优化启动速度、优化JVM的垃圾回收

LVS

①LVS模式

NAT DR TUN

②分流算法

轮询RR、 加权轮询WRR、 最少连接数LC、 加权最少连接数WLC

③集群的分类

负载均衡集群、高可用集群、高性能运算集群

④LVS负载均衡的三种模式:NAT、DR、TUN隧道

在我们公司里,我们经常会用DR模式,由于TUN费用比较高,所以我们会很少选择TUN,NAT模式中,由于接收和应答,路由都在lvs上,所以压力比较大,管理难度比较大,所以我们选择了DR模式

其次我们在使用DR模式的时候,我们可以隐藏自己的ip地址,这点也非常优于NAT的,在结合最后我们DR和Keepalive结合使用,增加了我们使用的安全和高可用的性能

相关文章