- 博客(2084)
- 资源 (4)
- 收藏
- 关注
原创 闲谈IPv6系列文章集锦
本文总结一个目录提纲,只要是给自己看的,记录一下哪些东西已经总结过了。闲谈IPv6-6to4隧道和ISATAP隧道: https://blog.csdn.net/dog250/article/details/88644797闲谈IPv6-说说IPv6地址分配和BGP: https://blog.csdn.net/dog250/article/details/88430415闲谈IPv6...
2019-03-18 22:38:43 41632 33
原创 不可靠不重传的 tcp 新魔改
有朋友跟我一个想法,认为 “Xpu 确实是各种很难想到的特定使用场景”,非常类似我最近提到的作为自我检讨用的 “自动切豆腐篦子”,我也就再评论几句 “就跟肥皂剧泛滥一样,你水一篇论文,虚构一个场景,我也必须水一篇论文,虚构一个场景,然后我拿着你的论文说你这个场景不适合我的场景,把你的论文稍微加点东西变成我的,你也觉得我的论文不适合你的场景,稍微改改变成你的,各种虚构+虚构场景,各种魔改版本”。单独的控制通道还没有改完,不过既然控制信息都拉到应用层了,格式都是我自己定,也就没必要迎合哪个协议了,简单。
2024-03-17 11:17:43 3111
原创 干重活儿的互联网
cpu 互联网只是数据的仓库,无论是你浏览网页,看视频,玩游戏,所有的内容几乎都来自于 “录入”,你上传一张图片,图片就保存在某个地方,当人们想看它时,它就从这个地方传输到人们眼前的屏幕上,互联网核心只看管数据,却无力触动数据,因为算力不行。我解释到,手工操作类似 cpu,机器批量操作类似 gpu,jpu。我只能这样讲,因为小孩子喜欢很酷的东西,他们喜欢无人机根据人的遥控去送货胜于人根据算法的指令去奔波,后者在他们看来一点意思都没有,但显然主角已经变了,人遥控无人机的主角是人,而外卖员送货的主角则是系统。
2024-03-15 23:09:52 4519
原创 《互联网的世界》第七讲-能源
我在欣赏血糕篦子时,将其看作 gpu,因为它善于做简单的,重复的,可并行的事,像这种并行输出物件儿的机器都很像 gpu,它们摆脱了串行操作对时间的依赖,可在空间上近乎无限的铺展开,这就是工业化。随着带宽渐大渐便宜,内存,处理器渐小渐便宜,进入移动时代后,互联网数据量指数级暴增,对大数据的处理需求催生了 gpu,dpu,jpu,xpu 的大规模应用,如今的数据量催使 ai 快速进化,大模型训练对算力和数据传输提出了更高的要求,互联网正在进入机器大工业时代。换句话说,干重体力活的互联网才刚刚开始。
2024-03-13 18:27:32 6079
原创 《互联网的世界》第六讲-去中心化和安全
运营商有责任对自己客户的行为负责,攻击者首先要过自家的关,这是背后的原理。某个操作时延变快,而其它操作没有等比例变快,突发造成的拥塞就会严重一些,严重到一定程度,就可算为攻击,我们发现,汽车提高了出行速度,但办事速度没有提升,所以服务大厅排队就会更严重,而互联网定制的导航,旅游,购物等行为,会造成更大程度的拥堵,背后也是这个原理。一种有趣的社工学拥塞控制的方法,将每个站点的月流量,峰值流量,平峰流量,均差,占比,用户数等信息公示出来并排名,如果出现一个巨无霸流量大户被曝光,它自行优化整改的概率会很大。
2024-03-11 19:45:52 8003
原创 GPU 和并行计算
还是说如果经理 A 不做,经理 B 也会做,所以不做就输了,那我觉得这些经理都 sb 了,无意义的事最终结果就是烟消云散,一切的结局总之也都是活该,不可能每个经理都赢,总有输到倾家荡产妻离子散的,小经理只能自求多福。血糕需要切片油炸,对刀功要求极高,片与片的薄厚和每一片自己的薄厚必须完全统一,切片又不能太小,相反,切片越大吃得越爽,但如果薄厚不统一,油炸的时候,油温是一致的,会造成薄的地方炸糊了,厚的地方还没熟。查了一下发现除了切成均匀的,还有能切成各种形状,薄厚不一的,除了 simd,还有 mimd …
2024-03-10 17:17:21 9128
原创 http cookie,tcp syncookie 和 tcp fastopen 杂谈
说到它们的具体实现时,只要涉及 “识别” 机制,很多人都默认该机制需要 “解码 cookie”,“以 key 查 value 来定位用户”,大致就是 http cookie 那套逻辑,然而 tcp 的 syncookie 恰恰是不想在 server 保存任何可供识别的信息,而 fastopen server 在收到 client 携带的 cookie 建立连接之前,连接并不存在,何谈信息识别。这种行为确实完全没必要标准化,因为 cookie 行为的波及半径仅限于商家,而商家又是如此之多。
2024-03-07 18:08:28 11631 1
原创 《互联网的世界》第五讲-信任和安全(第一趴:物理世界的非对称加密装置)
总之,信任和安全的话题非常大。很多人争论,互联网安全永远是最后贴上去的 patch,从来不是内置的,从这个视角看,物理世界也一样,出了事再说,规则和法律在不断完善,而不是被设计好。在线下物理世界,我们会配合使用锁,钥匙,玻璃窗,印章,签名,严格的法律等手段满足非对称安全需求,因为它们的操作时间处在同一个数量级,然而在线上世界,操作时延的差异被放大,使用不同的方式自然会引入木桶短板效应拖慢整个系统,固然需要一个统一的非对称算法,也就是我设计的上述装置在物理世界的描述,大概就是 rsa,ecc 这类。
2024-03-06 18:11:39 12012
原创 《互联网的世界》第四讲-拥塞控制与编码
一条直线由 2 个点确定,每个单词都可以编码到一条直线,只需要给 2 个点 4 个坐标即可,如果加入冗余,可以传输该直线上的 3 个点,4 个点,甚至更多点,只要 receiver 收到任意两个点,就能恢复这个单词,4 个坐标编码一个单词看起来并不便宜,如果 3 个,5 个点提供冗余就更昂贵了,但如果编码更长的单词呢,就会变得更划算,借鉴哈夫曼编码思想,直线可以编码 “常用但长” 的单词,短语。如今带宽已足够大,配合丢包,整型,限速,足以应对任何程度的拥塞,但任意一个上述措施都将压力给到了端主机。
2024-03-04 22:16:08 13721
原创 《互联网的世界》第三讲-tcp
源地址,目标地址一定要有,一个地址可能有不同住户,也就是 port 指示的,一系列相关联包裹的顺序编号也是必须,总共多少件,这是第几件等等,此外,一个包裹能不能被拆分运输,也要被标识,三吨大米可以拆分运输,而三吨大象就不行,能收多少,这个也要告知对方。双向交互协议最自然的方式是 “单字节停等”,若果然如此,tcp 就是个再简单不过的协议,但为了效率,单字节停等扩展为单报文停等,报文子节流可拆分,最终是窗口停等,窗口内报文可丢可乱序,一次发送一窗数据就不得不有效处理丢包乱序问题。tcp 影响了所有传输协议。
2024-02-29 21:51:51 17172 1
原创 《互联网的世界》第二讲-最短路径优先
回到最初的蜜蜂找花蜜丛,不是蜜蜂的聪明才智起了作用,而是花蜜散发的信息素被距离越近的蜜蜂感知越强烈,同时蜜蜂之间会进行信息传递,此二者就是最短路径优先的保证,关键就是信息的传递,这得益于蜜蜂和花都在这个最小作用量的世界进化了千万年,一切完美适应最小作用量。蜜蜂不停找距离蜂巢最近的花蜜,一旦找到就占作根据地,从而可嗅到其它距离更远的花蜜,这过程基本保证了蜜蜂每占领一块花丛,都是从最短距离逐步过来的,如果不是最短,蜜蜂肯定在更早时通过其它被占领的花蜜丛嗅到了。”,可是只有地址还不够,如何到达那里呢?
2024-02-28 22:24:37 17071
原创 诉诸存储和传输的编码
对于孤立语,由于单音节构词,书写系统和读音很容易分离到两条独立路径,单音节字型不断被压缩进新的含义,而读音系统却独自走上类似屈折语的道路,这个从汉字的 “象形”,“会意”,“假借”,“形声” 四阶段发展路径中可见一斑,如今我们看各地方言,特别是南方方言和北方的晋语安阳片,与屈折语的听说系统非常类似,念出来都是 “一嘟噜一串儿”。在东亚大陆并没有大的地缘隔离,各地区(比如当时的河南,山东,陕西)无论在地貌还是物产上相差无几,物质同类,没有太大的物资交换所必需的交流动机,因此甲骨文记载的文字并不直接用于交流。
2024-02-27 19:53:11 19301 1
原创 不同尺度下的网络控制方式
全局控制的意思是全局流量调度,虽然 pfc 以及它的引申算一类,但它还是不如 ib,因为以太网本身的矛盾就很有趣,它生在一个小地理尺度环境,却在一开始自带了大尺度的盲视图策略 csma/cd,即使交换机诞生,交换机 buffer 检测积攒冲突(执行 cd),再也攒不住时,端主机收敛一半的流量,aimd 顺理成章。很多人都讲过,aimd 是一种经过严密论证的非常成熟的拥塞控制策略,所以几乎任何算法都拿来用,哪怕只是兜底,但毕竟底都兜住了,上面的不做也罢,于是纷纷卷入更能所见即所得的方向,比如网卡。
2024-02-25 11:22:07 19089
原创 用脑补而不是重传对有损传输进行纠错
正如我们看到的,中文书翻译成英文后就会变厚,英文书翻译成中文就会变薄,中文的方式必然不可抵抗丢包,同样的丢包率,中文的方式损失的意义更多,也更难通过脑补纠错。以分层的视角,tcp 只能看到字节流,看不到意义。的方案,其实有更简单的方法,诉诸于人的信息何不让人脑(或 app 自身)自行纠错呢,娱乐至死的互联网时代,绝大多数信息都诉诸于人,包括视频,音频,网页,所以我一直不明白当 http 传输网页时,为什么不能接受有损,在网络丢包率高时,图片,视频是模糊的,声音是呲啦的,文字是间隔着的 x。
2024-02-21 12:54:16 19838 1
原创 谈谈网络拥塞的根源
所谓高铁,更大意义上是高速铁路网。延吉,哈尔滨一个菜市场,以前除了本地附近的人正常买菜,没人知道,它的运作很正常,媒体报道消除信息差后全国都知道了,菜市场瞬间沦陷,同理,导航造成了高速拥堵,12306造成了买票难,抖音小红书造成了景点拥堵,迪杰斯特拉算法造成了互联网拥塞,当然,如果拥塞的服务是一个依赖流量的网红,这就意味着源源不断的入账。这就是为什么越到了信息化时代,飞机,高铁等快速交通工具越发达,拥堵的地方越多的原因,曾经的书信,步行,自行车时代,反而哪里都不堵,而人口相比此前并没有量级的增量。
2024-02-10 11:37:57 19989
原创 关于人工智能的浅见
这些术语和细节大多是我不懂的,但我不在意也不认输,我曾经质疑假牛肉时,地下假肉丸子作坊的操作工也说过类似的话,“我就做这个的,还能不懂肉吗,这东西不如两个大馒头顶饿”,我没必要跟他讲碳水化物和蛋白质,虽然,它这个假肉也是蛋白质做的,只是他不知道而已,他理解的豆制品和白面馒头是一类东西。猫在镜子后面找镜中猫(自己)说明猫没有自我意识,它就很难理解真正的语言逻辑,因为语言逻辑涉及 “指代”,没有 “我” 就理解不了 “非我”,如 “它”,“他”,“这”,“那”,从而无法真正理解语言,也就无法和人媲美。
2024-01-12 17:30:00 25669 2
原创 理解指数移动平均(ema)
和普遍的 ema 式子的理解方式侧重于衰减不同,用缩放误差表示的式子展示了另一种校准的过程,因此在整个过程中,不光关注采样值,还可以调整误差缩放系数 beta 本身,比如,在 tcp(or 别的可靠传输协议) retrans 阶段,将 srtt 的 beta 调大以提高灵敏度。如果当前采样 C 是个噪点,系数 beta < 1 将它的影响压缩,如果 C 正常采样,beta 将延后 V 收敛到均值,因此 beta 越小,抗噪能力越强,滞后性越大。中我给出了一个指数移动平均的自然解释,但还是不够自然,如果把。
2024-01-09 22:30:00 22019
原创 12306 抢票的糟糕体验
有 100 件货,100 个人每人限购 1 件,在抢购的场景下,时间完全校准,100 人同时抢,第一次只有 1 人成功,99 人超时沮丧,剩余 99 人继续,98 人沮丧,如此类推,平均要沮丧 50 次才能抢到,但如果把超时预期放长一些,体验就会好很多。火车票并不是稀缺资源,但购票系统给了人稀缺的感觉,火车票数量本就根据潜在购票人数决定,就像带宽也不是稀缺资源,但 capacity-search 营造了稀缺的氛围,同样,道路也不稀缺,只是突发流量造成拥堵,多等等,总会到家的。抢购体验差也是这个原因。
2024-01-08 22:15:00 25968
原创 浅谈指数移动平均(ema)
如果你希望的记忆周期为 100,在上述集合 V 中,数到第 100 个元素,它的衰减系数是集合 F 的第 100 项 (1 - beta)^99,只要它足够小,它后面的就相当于被彻底遗忘忽略不计了。我们认识的每一件事物,其本质都在采样,我们将当前采用叠加在对该采用的历史记忆之上,一杯敬当下,一杯敬过往,形成对世界的理解,形成我们的观点,我们的整个世界每时每刻对每件事物都在做指数移动平均。的份额,这意味着随着新采样的不断进入,每一个历史采样必须衰减,历史越久的样本衰减越厉害,即 “逐渐忘掉过往”。
2024-01-05 18:52:28 26911
原创 dctcp 可扩展、低时延图解
将 N 等效为 BSize,可见 dctcp 队列的变化比 reno tcp 慢得多,很小的 K 值保持很小的排队时延就能容忍很宽的 C * RTT 范围,与此能力相对,reno tcp 需要 BSize 线性同步于 C * RTT,如果 C * RTT 很大而没有足够大的 buffer 与之匹配,reno aimd 一下子把 cwnd 降一半,把 inflight 降到不足 C * RTT,带宽将得不到有效利用。这就是一个低时延,低丢包,可扩展的算法,tcp prague,当然,它才刚起步。
2024-01-04 19:31:44 27409 1
原创 dctcp 和 l4s tcp prague
所述的部署问题,dcn 为保证极低时延,交换机拥塞阈值配置非常低,dctcp 与标准 tcp 对拥塞的反应在这种情况下导致不公平,标准 tcp 的 aimd 在浅 buffer 本就效率低下,遇到缓慢适配带宽的 dctcp 更加低效,这意味着二者需要隔离。这只对 rtt < 25ms 的流有影响。可见,在 tcp prague 眼里,所有流的 rtt 都大于 25ms,在没有排队时延假设的前提下,世界上最大的传播时延在 200ms 左右,与 25ms 相差 10 倍而已,rtt 不公平性被限制在合理范围。
2024-01-02 21:09:11 27196
原创 拧巴的 tcp
对下层,tso/gso,lro/gro 依赖顺序 stream,但传输优化却要乱序,这两者相悖,但网卡还是害怕 tcp socket 在 cpu 间迁移,不然它那些个 offloading,rss 就不起作用,空耗复杂性,当我提到这两者相悖时,程序员怼我,拼命维护 offloading 和 rss,大意是 “我靠,你怎么连优秀的 rss 都喷”,我就说,有了 rss,你怎么玩乱序。久而久之,tcp 就成了一个极其拧巴的协议,都烦,但谁也逃不过,但凡 tcp 问题都不是容易解决的,都是仁者见仁的形而上。
2023-12-30 16:15:00 30010 5
原创 tcp 乱序度量与丢包标记
n + 1 + k + r + x 中,只要 (n + 1 + k + r + x) - (n + 1) = k + r + x < m,就不会判定为丢包,因为乱序度 m 意味着 n + 1 及后续 hole 可能在 k + r + x 达到 m 前被确认。一个 rtt 内发送 cwnd 个段,链路上最多有 cwnd 段,最极端情况,该 cwnd 的第一个段和最后一个段乱序交换,一个段至多延迟 1 个 rtt 被确认,因此 rack 的乱序时间窗口 reo_wnd 在 (0, rtt) 内。
2023-12-29 06:45:00 27678
原创 dcn 隔离长短流的交换机 aqm
因此倾向于将任意流头排入 qlen 最小的 queue,后续报文自然也排入流头的那个 queue(此时不一定最小),如果是长流,该 queue 的 qlen 不会短,如果是短流,比如 10 个报文,它很快离开后 qlen 不会太长,一切交给自然。现实是,突发的短流,大量这种突发,不但干扰长流,也干扰自己。由于短流转瞬即逝,如果将其排入一个 queue,它很快会离开该 queue,而长流所在的 queue,由于其端到端算法大多犯贱,其 qlen 不会太短,这种启发式判断是合理的。端到端办不到的事就别办了。
2023-12-28 06:30:00 27534
原创 低时延,可扩展的 l4s 拥塞控制算法
只有 1 条流,buffer 中是 a 个报文,2 条流就是 a / 2 个报文,n 条流就是 a / n 个报文,无论多少条流,buffer 中总报文数量都是 a,这就保证了时延是固定的,由于 buffer 中保留了报文,和 vegas 类似,sender 可自动获取退出流出让的带宽,也能动态出让带宽给新流。强调可扩展算法在不随流量变化的时间从拥塞中恢复,但我强调另一面,如果拥塞从不发生,并且稍微排队(再次强调,为获得 vegas 自适应能力),可扩展性意味着排队时延不随流数量而变化。
2023-12-26 22:45:11 31544 3
原创 L4S 杂谈
在笛卡尔序之前的中世纪以及更往前的古代,人们便开始寻找朴素的机械法则来硬算,从而摆脱个别人的转瞬即逝的突发奇想,比如除法,割圆术,开方,解方程都存在硬算规则,但理念不行,理念和哲学无法形式化和机械化,正因为如此,亚里士多德的物理一直停留在形而上范畴,直到形而上的自然哲学有了数学原理(牛顿,莱布尼兹集大成),而这个数学原理正建立在笛卡尔序之上。而你们老师教你们的,你们教科书上强调的,就是那些苍白的奇技淫巧,一条辅助线做出了就哇塞,做不出来这道题就解不出来,数学好的学生就是掌握着更多奇技淫巧的学生。
2023-12-26 06:30:00 28914 5
原创 三分钟让孩子的数学开窍
在笛卡尔序之前的中世纪以及更往前的古代,人们便开始寻找朴素的机械法则来硬算,从而摆脱个别人的转瞬即逝的突发奇想,比如除法,割圆术,开方,解方程都存在硬算规则,但理念不行,理念和哲学无法形式化和机械化,正因为如此,亚里士多德的物理一直停留在形而上范畴,直到形而上的自然哲学有了数学原理(牛顿,莱布尼兹集大成),而这个数学原理正建立在笛卡尔序之上。而你们老师教你们的,你们教科书上强调的,就是那些苍白的奇技淫巧,一条辅助线做出了就哇塞,做不出来这道题就解不出来,数学好的学生就是掌握着更多奇技淫巧的学生。
2023-12-24 16:45:00 28833
原创 tcp vegas 的力学解释
当有流量退出或侵入时,松弛或压力的总效果是被所有仍在的流量均分的,n 条仍在的流中,每条流的感受都是总感受的 1 / n,每条流分担了总效果的 1 / n,它便是 diff,即 “作用力的变化-吞吐变化” 和 “力臂-basertt” 的乘积,针对这个乘积做代偿反应就行了。同样 bw 和 rtt 的乘积也是这样一种针对 buffer 的作用效果,包括电压和电流的乘积针对用电器的作用效果(能耗),或者电流和电阻针对电压的作用效果(电压降)。浙江温州皮鞋湿,下雨进水不会胖。
2023-12-23 14:30:00 27762
原创 谈谈 tcp 慢启动与拥塞控制
bbr 以 pacing 做拥塞控制,但对慢启动机制并没有太大修正,反而完全适配了传统慢启动,bbr startup 和传统慢启动在效果上一致,这似乎建立在一种很不自然的假设上,即传统慢启动是正确的。值得注意的是,传统慢启动不做 pacing,不做拥塞控制,由于指数灌报文,非常容易拥塞,丢包,指标剧烈抖动导致大部分测量没有意义,平稳流量抖动大多由新进流量慢启动行为导致。慢启动是一种 capacity-search 策略,不限于 tcp,但不说 tcp 慢启动不配标题党,所以就说 tcp 慢启动。
2023-12-22 07:15:00 29392
原创 tcp vegas 的伸缩性
为维持在最大带宽和最小时延的最佳操作点,bbr 要持续检查,如果 bbr 真做到了清空队列,就不得不再引入 probe 机制探取带宽,队列清空做不准,做准后要 probe,这一切增加了复杂性,且结果依旧不准,正如双手持续使力,为何不放手呢,何必在最小时延维持,松弛后的结果不光增加 buffer 占用,还可自动 probe,drain。给出 diff 表达式,设 cwnd 为 x,basertt 为 y,diff 为 z,给出两个不同 queuing_delay 时的 diff,观察两张三维面之间的距离。
2023-12-22 06:45:00 29859
原创 tcp vegas 为什么好
本质上,大家都被灌输了 capacity-search 思想,想方设法要榨干最后 1k 的带宽,却往往适得其反,包括 bbr 在内的绝大多数算法引入越搞越复杂的 probe 机制,却没有收到应有的收益,而 vegas 采用松弛策略,反而自动做到了带宽利用率的最优化。我们已经知道,y 越大,x 越大,如图所示,z 趋向于箭头指向的方向,在那里,平面非常平缓,这意味着,basertt 越大,对变化的感知力越弱,获得同样的带宽,basertt 越大,占据的 buffer 应该越小,这就是公平的根源。
2023-12-20 06:45:00 29989
原创 鉴赏 tcp vegas
全局统计意义上,只要 aimd 流足够多(足够异步),虽然每一条流都经历锯齿起伏,但整体队列长度是稳定的,这意味着 vegas 调整好 alpha,beta 以适配这个队列,结果就 ok,因为不存在不断增加的队列。一下就可看出 rtt 和 buffer 主宰了效率,所有的 aimd 定制算法都在调节 alpha 拧巴这两者,比如照顾大 rtt 或浅 buffer,调大 alpha 展开成别的算法,cubic,scalable,htcp 等无不如此。我也是这么认为的,所以难免想单独再多说几句,就写了本文。
2023-12-19 06:15:00 30371
原创 结果令人失望的 bbr2
自 bbr 发布,它的表现让很多人开始追版本,bbr2,bbr3 何时发布,何时并入 kernel,很多人操心。按版本迭代预期,大家普遍觉得 bbr2 会比 bbr1 表现更好,bbr3 更优秀,但结果让人失望,bbr2,bbr3 都不如 bbr1 …但即便如此,人们依然觉得这只是暂时的 bug,等经过 bugfix,bbr3 一定起飞。bbr1 在大多数人眼里表现好,因为只关注吞吐,它确实好,就像很多人想做却不会编程,会编程却不懂内核那样,他们只想用更大速率发送,而 bbr1 恰好就是这样一个东西。
2023-12-16 00:15:00 30361
原创 Linux kernel 协议栈与高速网络
tcp 足够幸运,由于其 32 位序列号,为满足 msl 内避免回绕,它恰恰工作在 1ms 级,与 linux kernel 调度时间粒度完全一致, 这意味着在 1ms 级别的粒度,linux kernel 可相当公平高效地调度 10gbps 内的多个 tcp task,但蜜月即将结束,15 年前就有 hz1000,现在还在 hz250,然而这些年间网络带宽持续以 4 倍速增长,超过 10gbps,每 1ms 超过 40 次到达 100 次的中断,由上所述,调度可信度就快速崩塌了。换句话说,调度失效了。
2023-12-15 07:00:00 30779
原创 数字暴政与数字暴徒
新数字暴政:如今人们被数字绑架,所有事都被数字量化考核,为了追平或超越某数字不得不时刻紧张兮兮,包括不限于:体检报告,体重,吃了多少卡路里的饭,为消耗这些饭跑了多少公里,实际消耗多少卡路里,心率多少次,跑一公里多长时间,深度睡眠多久,晚上醒了几次,通勤时间占比,vx 读书时长,英语学习时长,kpi 考核,去了多少个城市,考了多少证,一天拉几次屎,多久拉一次,各种先污染后治理的数字激活了很多周边商业,卖药,办健身卡,卖表,卖鞋,卖眼镜,卖课,卖 app…其实都在卖焦虑,人们被数字压迫,却甘愿被数字统治。
2023-12-13 23:45:00 30580
原创 从水坝,真空管到三极管
三极管非常巧妙,和掺杂 PN 结被发现的戏剧化过程一样,可当故事而不是技术来讲,但这不是最重要的,因为总有新物质至少同样精巧,或许根本不是电子的,每一种发明或发现都伴随着某些让人拍案卧艹的奇技淫巧,这并不稀奇。电子驱动的类似装置最大的意义在于它们是 “电驱动电”,自己控制自己的优势在于可扩展性,允许任意比例缩放,这意味着只要材料允许,它们可以缩小到任意尺寸,它们只和材料打架,自己不会和自己打架。真空管利用的是逃逸电子,三极管则利用量子效应,二者殊途同归,如果发现了更精巧的新物质,核舟记的故事就要有新篇章。
2023-12-12 06:15:00 28915
原创 我们的大脑如何感受音乐和速度
如果他从没见过猫捕鸟,他不会感觉到慢,如果他见过,他的大脑神经网络已经被这个过程塑造过,当他看到一张猫弯曲后腿盯着上方的照片时,他可以预测到下一张照片,如果仅仅给出这张静态照片而永远不展示下一张,他也能获得猫即将腾起的动态感,因为在他的大脑里有这个预期,就像听到一句歌词,很自然就哼出下一句一样。由于速度的数学量化和物理意义间的矛盾,速度的度量单位采用 “量/单位时间” 方式,本质上还是数数量,无论采用简单除法求平均,还是复杂曲线求导数,都避开了物理意义以获得可操作性,但这种可操作性依然是不可理解的。
2023-12-10 14:45:00 29321 1
原创 计算和传输背后的时空观
假设一个世界由 a,b,c 组成,这个世界将会出现以下几种状态:abc,acb,bac,bca,cab,cba,概率一样。如果伪造 5 张照片,或者随意抽出 5 张毫无规律的照片,按照某种规律人为排列顺序,一张张给他看,他就能从不存在的规律中找到规律,这个规律让他感受到时间流逝,而时间之所以流逝来自于骗他的人事先对这些凌乱的图片做了功,就像上紧一个发条,松开手就会复位一样,这个过程让被测者感受到了流动,一环扣一环,一拍随着一拍,按照自己大脑中已存在的预设,接收状态的变化。传统说法,时间是熵,熵又是什么。
2023-12-10 11:00:00 29356
原创 从阻抗匹配看拥塞控制
此前我提到过,端到端由于信息精度存在上限,无法区分丢包类型,更别提拥塞检测,但随后我也提过,转发节点的信息非常精确,它可通过 ECN 间接告诉 sender,然而还有更有效的方法,直接调整 buffer 或带宽,连带着调整 wred,这就是阻抗匹配的思路,要么sender 串个电阻,要么 receiver 并个电阻。可见,三种形态的网络,电路,互联网/DCN,循环系统展示三种特别之处,但无论如何阻抗匹配的含义是一致的:减少流量的变化引起新的变化与原始流量叠加,这情况的后果就是能耗被白白浪费掉。
2023-12-09 06:00:00 14455
原创 AI 大模型时代的计算机网络通信
人从婴儿到成人,一直在不停学习某种或几种语言的听说读写,本质上是在不断建立形象的,抽象的,具象的,概念的世间万物和某种符号的映射关系,从字到词,词组,句子的读写,到吵架,面试,扯淡,演讲,辩论,都是这种映射关系的学习,矫正,甚至遗忘,即增删改查。中国人无论听到哪个读音,残缺的,方言,连读的,学名,都能想到 🍎,但对于老外学中文,除了按照他学习时老师教的标准普通话 “pingguo” 读音和写法之外,换个山东人读快一点他都不知道在说什么,因为他在记忆语音和字形的编码,而不是在建立一种映射。
2023-12-05 06:45:00 17883
一个iptables的stateless NAT模块实现
2014-12-27
模块化的nf-HiPAC
2014-11-21
关于linux内核以及其他个人体会的文集
2009-09-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人