设为首页收藏本站
网站公告 | 这是第一条公告
     

 找回密码
 立即注册
缓存时间18 现在时间18 缓存数据 从头到尾 我要的只有感情 可没人能给我

从头到尾 我要的只有感情 可没人能给我 -- 情深深雨濛濛

查看: 865|回复: 2

详解从Linux源码看Socket(TCP)的bind

[复制链接]

  离线 

TA的专栏

  • 打卡等级:热心大叔
  • 打卡总天数:204
  • 打卡月天数:0
  • 打卡总奖励:2957
  • 最近打卡:2023-08-27 08:01:56
等级头衔

等級:晓枫资讯-上等兵

在线时间
0 小时

积分成就
威望
0
贡献
409
主题
391
精华
0
金钱
4201
积分
824
注册时间
2022-12-23
最后登录
2025-8-28

发表于 2024-3-20 22:05:29 | 显示全部楼层 |阅读模式
目录


  • 一、一个最简单的Server端例子
  • 二、bind系统调用

    • 2.1、inet_bind
    • 2.2、inet_csk_get_port

  • 三、判断端口号是否冲突
  • 四、SO_REUSEADDR和SO_REUSEPORT
  • 五、SO_REUSEADDR
  • 六、SO_REUSEPORT
  • 七、总结

一、一个最简单的Server端例子

众所周知,一个Server端Socket的建立,需要socket、bind、listen、accept四个步骤。
1.jpeg

代码如下:
  1. void start_server(){
  2.     // server fd
  3.     int sockfd_server;
  4.     // accept fd
  5.     int sockfd;
  6.     int call_err;
  7.     struct sockaddr_in sock_addr;

  8.     sockfd_server = socket(AF_INET,SOCK_STREAM,0);
  9.     memset(&sock_addr,0,sizeof(sock_addr));
  10.     sock_addr.sin_family = AF_INET;
  11.     sock_addr.sin_addr.s_addr = htonl(INADDR_ANY);
  12.     sock_addr.sin_port = htons(SERVER_PORT);
  13.     // 这边就是我们今天的聚焦点bind
  14.     call_err=bind(sockfd_server,(struct sockaddr*)(&sock_addr),sizeof(sock_addr));
  15.     if(call_err == -1){
  16.         fprintf(stdout,"bind error!\n");
  17.         exit(1);
  18.     }
  19.     // listen
  20.     call_err=listen(sockfd_server,MAX_BACK_LOG);
  21.     if(call_err == -1){
  22.         fprintf(stdout,"listen error!\n");
  23.         exit(1);
  24.     }
  25. }
复制代码
首先我们通过socket系统调用创建了一个socket,其中指定了SOCK_STREAM,而且最后一个参数为0,也就是建立了一个通常所有的TCP Socket。在这里,我们直接给出TCP Socket所对应的ops也就是操作函数。
2.jpeg


二、bind系统调用

bind将一个本地协议地址(protocol:ip:port)赋予一个套接字。例如32位的ipv4地址或128位的ipv6地址+16位的TCP活UDP端口号。
  1. #include <sys/socket.h>
  2. // 返回,若成功则为0,若出错则为-1
  3. int bind(int sockfd, const struct sockaddr *myaddr, socklen_t addrlen);
复制代码
好了,我们直接进入Linux源码调用栈吧。
  1. <span style="background-color: initial;">bind</span>
  2. <span style="white-space:pre">        </span>// 这边由系统调用的返回值会被glibc的INLINE_SYSCALL包一层
  3. <span style="white-space:pre">        </span>// 若有错误,则设置返回值为-1,同时将系统调用的返回值的绝对值设置给errno
  4. <span style="white-space:pre">        </span>|->INLINE_SYSCALL (bind......);
  5. <span style="white-space:pre">                </span>|->SYSCALL_DEFINE3(bind......);
  6. <span style="white-space:pre">                        </span>/* 检测对应的描述符fd是否存在,不存在,返回-BADF
  7. <span style="white-space:pre">                        </span>|->sockfd_lookup_light
  8. <span style="white-space:pre">                        </span>|->sock->ops->bind(inet_stream_ops)
  9. <span style="white-space:pre">                                </span>|->inet_bind
  10. <span style="white-space:pre">                                        </span>|->AF_INET兼容性检查
  11. <span style="white-space:pre">                                        </span>|-><1024端口权限检查
  12. <span style="white-space:pre">                                        </span>/* bind端口号校验or选择(在bind为0的时候)
  13. <span style="white-space:pre">                                        </span>|->sk->sk_prot->get_port(inet_csk_get_port)
复制代码
2.1、inet_bind

inet_bind这个函数主要做了两个操作,一是检测是否允许bind,而是获取可用的端口号。这边值得注意的是。如果我们设置需要bind的端口号为0,那么Kernel会帮我们随机选择一个可用的端口号来进行bind!
  1. // 让系统随机选择可用端口号
  2. sock_addr.sin_port = 0;
  3. call_err=bind(sockfd_server,(struct sockaddr*)(&sock_addr),sizeof(sock_addr));
复制代码
让我们看下inet_bind的流程
3.jpeg

值得注意的是,由于对于<1024的端口号需要CAP_NET_BIND_SERVICE,我们在监听80端口号(例如启动nginx时候),需要使用root用户或者赋予这个可执行文件CAP_NET_BIND_SERVICE权限。
  1. <span style="background-color: initial;">use root </span>
  2.  or
  3. setcap cap_net_bind_service=+eip ./nginx 
复制代码
我们的bind允许绑定到0.0.0.0即INADDR_ANY这个地址上(一般都用这个),它意味着内核去选择IP地址。对我们最直接的影响如下图所示:
4.jpeg

然后,我们看下一个比较复杂的函数,即可用端口号的选择过程inet_csk_get_port
(sk->sk_prot->get_port)

2.2、inet_csk_get_port

第一段,如果bind port为0,随机搜索可用端口号
直接上源码,第一段代码为端口号为0的搜索过程
  1. // 这边如果snum指定为0,则随机选择端口
  2. int inet_csk_get_port(struct sock *sk, unsigned short snum)
  3. {
  4.         ......
  5.         // 这边net_random()采用prandom_u32,是伪(pseudo)随机数
  6.         smallest_rover = rover = net_random() % remaining + low;
  7.         smallest_size = -1;
  8.         // snum=0,随机选择端口的分支
  9.         if(!sum){
  10.                 // 获取内核设置的端口号范围,对应内核参数/proc/sys/net/ipv4/ip_local_port_range
  11.                 inet_get_local_port_range(&low,&high);
  12.                 ......
  13.                 do{
  14.                         if(inet_is_reserved_local_port(rover)
  15.                                 goto next_nonlock; // 不选择保留端口号
  16.                         ......
  17.                         inet_bind_bucket_for_each(tb, &head->chain)
  18.                                 // 在同一个网络命名空间下存在和当前希望选择的port rover一样的port
  19.                                 if (net_eq(ib_net(tb), net) && tb->port == rover) {
  20.                                         // 已经存在的sock和当前新sock都开启了SO_REUSEADDR,且当前sock状态不为listen
  21.                                         // 或者
  22.                                         // 已经存在的sock和当前新sock都开启了SO_REUSEPORT,而且两者都是同一个用户
  23.                                         if (((tb->fastreuse > 0 &&
  24.                                               sk->sk_reuse &&
  25.                                               sk->sk_state != TCP_LISTEN) ||
  26.                                              (tb->fastreuseport > 0 &&
  27.                                               sk->sk_reuseport &&
  28.                                               uid_eq(tb->fastuid, uid))) &&
  29.                                             (tb->num_owners < smallest_size || smallest_size == -1)) {
  30.                                            // 这边是选择一个最小的num_owners的port,即同时bind或者listen最小个数的port
  31.                                            // 因为一个端口号(port)在开启了so_reuseaddr/so_reuseport之后,是可以多个进程同时使用的
  32.                                                 smallest_size = tb->num_owners;
  33.                                                 smallest_rover = rover;
  34.                                                 if (atomic_read(&hashinfo->bsockets) > (high - low) + 1 &&
  35.                                                     !inet_csk(sk)->icsk_af_ops->bind_conflict(sk, tb, false)) {
  36.                                                     // 进入这个分支,表明可用端口号已经不够了,同时绑定当前端口号和之前已经使用此port的不冲突,则我们选择这个端口号(最小的)
  37.                                                         snum = smallest_rover;
  38.                                                         goto tb_found;
  39.                                                 }
  40.                                         }
  41.                                         // 若端口号不冲突,则选择这个端口
  42.                                         if (!inet_csk(sk)->icsk_af_ops->bind_conflict(sk, tb, false)) {
  43.                                                 snum = rover;
  44.                                                 goto tb_found;
  45.                                         }
  46.                                         goto next;
  47.                                 }
  48.                         break;
  49.                         // 直至遍历完所有的可用port
  50.                 } while (--remaining > 0);
  51.         }
  52.         .......
  53. }
复制代码
由于,我们在使用bind的时候很少随机端口号(在TCP服务器来说尤其如此),这段代码笔者就注释一下。一般只有一些特殊的远程过程调用(RPC)中会使用随机Server端随机端口号。
第二段,找到端口号或已经指定
  1. have_snum:
  2.         inet_bind_bucket_for_each(tb, &head->chain)
  3.                         if (net_eq(ib_net(tb), net) && tb->port == snum)
  4.                                 goto tb_found;
  5.         }
  6.         tb = NULL;
  7.         goto tb_not_found
  8. tb_found:
  9.         // 如果此port已被bind
  10.         if (!hlist_empty(&tb->owners)) {
  11.                 // 如果设置为强制重用,则直接成功
  12.                 if (sk->sk_reuse == SK_FORCE_REUSE)
  13.                         goto success;
  14.         }
  15.         if (((tb->fastreuse > 0 &&
  16.                       sk->sk_reuse && sk->sk_state != TCP_LISTEN) ||
  17.                      (tb->fastreuseport > 0 &&
  18.                       sk->sk_reuseport && uid_eq(tb->fastuid, uid))) &&
  19.                     smallest_size == -1) {
  20.                     // 这个分支表明之前bind的port和当前sock都设置了reuse同时当前sock状态不为listen
  21.                         // 或者同时设置了reuseport而且是同一个uid(注意,设置了reuseport后,可以同时listen同一个port了)
  22.                         goto success;
  23.         } else {
  24.                         ret = 1;
  25.                         // 检查端口是否冲突
  26.                         if (inet_csk(sk)->icsk_af_ops->bind_conflict(sk, tb, true)) {
  27.                                 if (((sk->sk_reuse && sk->sk_state != TCP_LISTEN) ||
  28.                                      (tb->fastreuseport > 0 &&
  29.                                       sk->sk_reuseport && uid_eq(tb->fastuid, uid))) &&
  30.                                     smallest_size != -1 && --attempts >= 0) {
  31.                                     // 若冲突,但是设置了reuse非listen状态或者设置了reuseport且出在同一个用户下
  32.                                     // 则可以进行重试
  33.                                         spin_unlock(&head->lock);
  34.                                         goto again;
  35.                                 }

  36.                                 goto fail_unlock;
  37.                         }
  38.                         // 不冲突,走下面的逻辑
  39.                 }
  40. tb_not_found:
  41.         if (!tb && (tb = inet_bind_bucket_create(hashinfo->bind_bucket_cachep,
  42.                                         net, head, snum)) == NULL)
  43.                         goto fail_unlock;
  44.         // 设置fastreuse
  45.         // 设置fastreuseport
  46. success:
  47.         ......
  48.         // 将当前sock链入tb->owner,同时tb->num_owners++
  49.         inet_bind_hash(sk, tb, snum);
  50.         ret = 0;
  51.         // 返回bind(绑定)成功
  52.         return ret;
复制代码
三、判断端口号是否冲突

在上述源码中,判断端口号时否冲突的代码为
  1. inet_csk(sk)->icsk_af_ops->bind_conflict 也即 inet_csk_bind_conflict
  2. int inet_csk_bind_conflict(const struct sock *sk,
  3.                            const struct inet_bind_bucket *tb, bool relax){
  4.         ......
  5.         sk_for_each_bound(sk2, &tb->owners) {
  6.                         // 这边判断表明,必须同一个接口(dev_if)才进入下内部分支,也就是说不在同一个接口端口的不冲突
  7.                         if (sk != sk2 &&
  8.                     !inet_v6_ipv6only(sk2) &&
  9.                     (!sk->sk_bound_dev_if ||
  10.                      !sk2->sk_bound_dev_if ||
  11.                      sk->sk_bound_dev_if == sk2->sk_bound_dev_if))
  12.                      {
  13.                              if ((!reuse || !sk2->sk_reuse ||
  14.                             sk2->sk_state == TCP_LISTEN) &&
  15.                             (!reuseport || !sk2->sk_reuseport ||
  16.                             (sk2->sk_state != TCP_TIME_WAIT &&
  17.                              !uid_eq(uid, sock_i_uid(sk2))))) {
  18.                            // 在有一方没设置reuse且sock2状态为listen 同时
  19.                            // 有一方没设置reuseport且sock2状态不为time_wait同时两者的uid不一样的时候
  20.                                 const __be32 sk2_rcv_saddr = sk_rcv_saddr(sk2);
  21.                                 if (!sk2_rcv_saddr || !sk_rcv_saddr(sk) ||
  22.                                           // ip地址一样,才算冲突
  23.                                     sk2_rcv_saddr == sk_rcv_saddr(sk))
  24.                                         break;
  25.                         }
  26.                         // 非放松模式,ip地址一样,才算冲突
  27.                         ......
  28.                           return sk2 != NULL;
  29.         }
  30.         ......
  31. }
复制代码
上面代码的逻辑如下图所示:
5.jpeg


四、SO_REUSEADDR和SO_REUSEPORT

上面的代码有点绕,笔者就讲一下,对于我们日常开发要关心什么。
我们在上面的bind里面经常见到sk_reuse和sk_reuseport这两个socket的Flag。这两个Flag能够决定是否能够bind(绑定)成功。这两个Flag的设置在C语言里面如下代码所示:
  1. setsockopt(sockfd_server, SOL_SOCKET, SO_REUSEADDR, &(int){ 1 }, sizeof(int));
  2. setsockopt(sockfd_server, SOL_SOCKET, SO_REUSEPORT, &(int){ 1 }, sizeof(int));
复制代码
在原生JAVA中
  1. // java8中,原生的socket并不支持so_reuseport
  2. ServerSocket server = new ServerSocket(port);
  3. server.setReuseAddress(true);
复制代码
在Netty(Netty版本 >= 4.0.16且Linux内核版本>=3.9以上)中,可以使用SO_REUSEPORT。

五、SO_REUSEADDR

在之前的源码里面,我们看到判断bind是否冲突的时候,有这么一个分支
  1. (!reuse || !sk2->sk_reuse ||
  2.                             sk2->sk_state == TCP_LISTEN) /* 暂忽略reuseport */){
  3.         // 即有一方没有设置
  4. }
复制代码
如果sk2(即已bind的socket)是TCP_LISTEN状态或者,sk2和新sk两者都没有设置_REUSEADDR的时候,可以判断为冲突。
我们可以得出,如果原sock和新sock都设置了SO_REUSEADDR的时候,只要原sock不是Listen状态,都可以绑定成功,甚至ESTABLISHED状态也可以!
6.jpeg

这个在我们平常工作中,最常见的就是原sock处于TIME_WAIT状态,这通常在我们关闭Server的时候出现,如果不设置SO_REUSEADDR,则会绑定失败,进而启动不来服务。而设置了SO_REUSEADDR,由于不是TCP_LISTEN,所以可以成功。
7.jpeg

这个特性在紧急重启以及线下调试的非常有用,建议开启。

六、SO_REUSEPORT

SO_REUSEPORT是Linux在3.9版本引入的新功能。
  1. <span style="background-color: initial;">1.在海量高并发连接的创建时候,由于正常的模型是单线程listener分发,无法利用多核优势,这就会成为瓶颈。</span>
  2. 2.CPU缓存行丢失
复制代码
我们看下一般的Reactor线程模型,
8.jpeg

明显的其单线程listen/accept会存在瓶颈(如果采用多线程epoll accept,则会惊群,加WQ_FLAG_EXCLUSIVE可以解决一部分),尤其是在采用短链接的情况下。
鉴于此,Linux增加了SO_REUSEPORT,而之前bind中判断是否冲突的下面代码也是为这个参数而添加的逻辑:
  1. if(!reuseport || !sk2->sk_reuseport ||
  2.                             (sk2->sk_state != TCP_TIME_WAIT &&
  3.                              !uid_eq(uid, sock_i_uid(sk2))
复制代码
这段代码让我们在多次bind的时候,如果设置了SO_REUSEPORT的时候不会报错,也就是让我们有个多线程(进程)bind/listen的能力。如下图所示:
9.jpeg

而开启了SO_REUSEPORT后,代码栈如下:
  1. tcp_v4_rcv
  2.         |->__inet_lookup_skb
  3.                 |->__inet_lookup
  4.                         |->__inet_lookup_listener
  5. /* 用打分和伪随机数等挑选出一个listen的sock */
  6. struct sock *__inet_lookup_listener(......)
  7. {
  8.         ......
  9.         if (score > hiscore) {
  10.                         result = sk;
  11.                         hiscore = score;
  12.                         reuseport = sk->sk_reuseport;
  13.                         if (reuseport) {
  14.                                 phash = inet_ehashfn(net, daddr, hnum,
  15.                                                      saddr, sport);
  16.                                 matches = 1;
  17.                         }
  18.                 } else if (score == hiscore && reuseport) {
  19.                         matches++;
  20.                         if (((u64)phash * matches) >> 32 == 0)
  21.                                 result = sk;
  22.                         phash = next_pseudo_random32(phash);
  23.                 }
  24.         ......
  25. }
复制代码
直接在内核层面做负载均衡,将accept的任务分散到不同的线程的不同socket上(Sharding),毫无疑问可以多核能力,大幅提升连接成功后的socket分发能力。
Nginx已经采用SO_REUSEPORT
Nginx在1.9.1版本的时候引入了SO_REUSEPORT,配置如下:
  1. http {
  2.      server {
  3.           listen 80 reuseport;
  4.           server_name  localhost;
  5.           # ...
  6.      }
  7. }

  8. stream {
  9.      server {
  10.           listen 12345 reuseport;
  11.           # ...
  12.      }
  13. }
复制代码
10.jpeg

11.jpeg


七、总结

Linux内核源码博大精深,一个看起来简单的bind系统调用竟然牵涉这么多,在里面可以挖掘出各种细节。在此分享出来,希望对读者有所帮助。
以上就是详解从Linux源码看Socket(TCP)的bind的详细内容,更多关于从Linux Socket(TCP) bind的资料请关注晓枫资讯其它相关文章!

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
晓枫资讯-科技资讯社区-免责声明
免责声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。
      1、注册用户在本社区发表、转载的任何作品仅代表其个人观点,不代表本社区认同其观点。
      2、管理员及版主有权在不事先通知或不经作者准许的情况下删除其在本社区所发表的文章。
      3、本社区的文章部分内容可能来源于网络,仅供大家学习与参考,如有侵权,举报反馈:点击这里给我发消息进行删除处理。
      4、本社区一切资源不代表本站立场,并不代表本站赞同其观点和对其真实性负责。
      5、以上声明内容的最终解释权归《晓枫资讯-科技资讯社区》所有。
http://bbs.yzwlo.com 晓枫资讯--游戏IT新闻资讯~~~

  离线 

TA的专栏

等级头衔

等級:晓枫资讯-列兵

在线时间
0 小时

积分成就
威望
0
贡献
0
主题
0
精华
0
金钱
16
积分
12
注册时间
2022-12-27
最后登录
2022-12-27

发表于 2024-11-4 06:19:17 | 显示全部楼层
顶顶更健康!!!
http://bbs.yzwlo.com 晓枫资讯--游戏IT新闻资讯~~~

  离线 

TA的专栏

  • 打卡等级:即来则安
  • 打卡总天数:21
  • 打卡月天数:0
  • 打卡总奖励:245
  • 最近打卡:2025-11-01 13:58:22
等级头衔

等級:晓枫资讯-列兵

在线时间
0 小时

积分成就
威望
0
贡献
0
主题
0
精华
0
金钱
284
积分
50
注册时间
2023-3-6
最后登录
2025-11-1

发表于 3 天前 | 显示全部楼层
路过,支持一下
http://bbs.yzwlo.com 晓枫资讯--游戏IT新闻资讯~~~
严禁发布广告,淫秽、色情、赌博、暴力、凶杀、恐怖、间谍及其他违反国家法律法规的内容。!晓枫资讯-社区
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

1楼
2楼
3楼

手机版|晓枫资讯--科技资讯社区 本站已运行

CopyRight © 2022-2025 晓枫资讯--科技资讯社区 ( BBS.yzwlo.com ) . All Rights Reserved .

晓枫资讯--科技资讯社区

本站内容由用户自主分享和转载自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

如有侵权、违反国家法律政策行为,请联系我们,我们会第一时间及时清除和处理! 举报反馈邮箱:点击这里给我发消息

Powered by Discuz! X3.5

快速回复 返回顶部 返回列表