html tool

2026年2月5日星期四

桩与玉

 和天博的玉站桩的发现,“苍玉礼天”,这种体验之前,一直认为这个是古人自己指定颜色指定材质后代表记号随便记录用的,但多次在这个西周的青玉壁前站桩后,真实的体会到这“天”应该是督脉之气,开始两次站桩都在10分钟左右,自己的整个后背感觉到很强的气感,从第二次超过10分钟后开始,两个肩胛下就开始有非常强向上顶的力,有几个瞬间都以为自己要长出翅膀了,后来感觉翅膀非常明显和整个后背浑然一体,从未感觉过的后背的开阔,身体的开阔,心的开阔。这个已经连续4次站桩 体验到,是可以重复的,现在自己过1个月左右就想去站站了:)。但这个应该和自己心的放松程有关系,中间有次和unu,吞一起去的天博,他们在体验vr,而我自己在玉器这边那次站就效果都不好,自己每次出去和unu在一起都不是很放松,想来是这个原因。

“黄玉礼地”那个青玉壁右侧90度的位置就是一个西周的琮,但是是青玉的,只是时间太久有红色的外部氧化层,这个站桩的感觉是十分强烈的任脉气感,从外阴到百汇的管子的感觉,稍微站久一点(5分钟以上)就感觉从两脚之间有一个很宽的烟囱道一直贯穿任脉冲出头顶,不停感觉到这个过程中,同时感觉自己的呼吸非常的深沉和厚。

另一个璧是西汉的比西周那个小,薄,但璧上有兽纹,这个是自己最先发现有气感的器,在它前站桩是感觉以膈为中心开阔,从神阙开始到膈不分身体的前后,整个中焦感觉都空了,非常舒服的空。这个不用站桩姿势太明显和时间长,在首次参观它时就感觉到了这个感觉,和它一起的有4,5个其他的青玉璧,这个是最明显的气感,但它比西周那个很不一样,感觉没有那个博大,这个空感觉自己是宇宙,那个空是自己这个宇宙的一部分,而西周那个,感觉自己是那个天气中的一个小部分。

另外还有是12月份去才留意到的新石器时代的青玉璧,比西周那个还厚,在离玻璃罩半步外就有气感,但当时时间急没有站,之后站了在详细记录。除了玉器,自己去了趟马可乐的家具博物馆,有两个黄花梨的桌子气感的浑厚度也非常明显,但因为之去了一次,没有太久的时间测试站桩效果,还是参观为主,但总体感觉最近1年自己在器和物,甚至是不同材质的地板上和不同空间的空气中感觉到的气也越来越明显的不同了,有时甚至感觉心境都受到这个影响,感觉自己在不同的气的场中穿梭,好神奇,之后好好体悟总结一下,我感觉自己有时可以通过手指,有时就是直接凭借皮肤就感觉到不同气,但前提都是自己要特别安静心特别空不紧张不忙碌才可以。

2026年1月20日星期二

转:virsh 介绍

 virsh  是 libvirt 的命令行管理工具,用于管理 KVM/Xen/QEMU 虚拟化平台。它提供了对虚拟机生命周期管理的完整控制


基本介绍

virsh 是 libvirt 的命令行管理工具,用于管理 KVM/Xen/QEMU 虚拟化平台。它提供了对虚拟机生命周期管理的完整控制


安装

# Rocky/CentOS 8

sudo dnf install -y libvirt libvirt-client virt-install virt-viewer


命令说明

 virtio 是一个虚拟化 I/O 标准框架

# 作用:在宿主机和虚拟机之间提供高效的数据传输

# 优势:相比完全虚拟化(emulated)设备,性能提升 2-10 倍


modprobe virtio    #加载 virtio 核心模块,提供 virtio 框架的基础功能

modprobe virtio-pci #加载 virtio PCI 总线驱动,使 virtio 设备可以通过 PCI 总线与系统通信

modprobe virtio-blk #加载 virtio 块设备驱动,用于 virtio 虚拟磁盘

modprobe virtio-net #加载 virtio 网络设备驱动,用于 virtio 虚拟网卡。



2026年1月3日星期六

 mark

介绍: 强制停用的服务,无法手动启用


屏蔽服务

systemctl mask <服务>

systemctl mask --now <服务> #屏蔽并关闭服务

解除屏蔽

systemctl unmask <服务>

systemctl unmask --now <服务> #解除并开启服务


2025年12月17日星期三

转:linux 网桥配置

 

使用 Bridge网桥(最常用)

创建网桥,让多个容器通过网桥互联并访问外部网络。

bash
# 1. 创建网桥
sudo ip link add br0 type bridge
sudo ip link set br0 up
sudo ip addr add 192.168.100.1/24 dev br0

# 2. 创建veth pair
sudo ip link add veth-host type veth peer name veth-container

# 3. 将veth-host连接到网桥
sudo ip link set veth-host master br0
sudo ip link set veth-host up

# 4. 创建命名空间并移动veth-container
sudo ip netns add container1
sudo ip link set veth-container netns container1
sudo ip netns exec container1 ip link set veth-container up
sudo ip netns exec container1 ip addr add 192.168.100.100/24 dev veth-container

# 5. 启用NAT转发(让容器能访问外网)
sudo iptables -t nat -A POSTROUTING -s 192.168.100.0/24 ! -o br0 -j MASQUERADE
sudo sysctl -w net.ipv4.ip_forward=1

2025年12月1日星期一

问题:Buff/Cache 中不可以算到Availabe中的部分是什么?

 交流中被问到free -h中为什么Available 比Buff/Cache小

查询发现Available估算时Buff/Cache有无法使用的部分,

Buff/Cache中不可立即回收(不能完全算入Available)的部分主要包括:

  1. 脏页:已被修改但尚未写入磁盘的数据。

  2. 正在被使用的页:有进程正在直接读取或写入的缓存页。

  3. 被锁定在内存中的页:通过mlock()系统调用锁定的页。

  4. 内核数据结构占用的Slab内存中的不可回收部分

1. 脏页 - 最大的“不确定因素”

  • 是什么:数据已在内存中被修改,但与磁盘上的版本不一致。内核必须先将它们写回磁盘,才能回收这些内存页。

  • 影响:如果系统有大量写入操作(如数据库、日志写入),脏页会很多。回收它们需要等待I/O完成,因此不能立即提供给应用程序

  • 查看命令

    bash
    grep -E 'Dirty|Writeback' /proc/meminfo

    输出示例:

    text
    Dirty:            12456 kB      # 待写回的脏数据量
    Writeback:          432 kB      # 正在写回的数据量

2. 正在被使用的页

  • 是什么:某个进程正在通过read()write()系统调用访问的缓存页。回收会导致进程I/O错误。

  • 影响:通常比例很小,但存在。

3. 被锁定的页

  • 是什么:通过mlock()系统调用明确要求常驻内存的页(如一些实时性要求高的应用、加密密钥)。

  • 影响:明确不可回收。

4. Slab内存中的不可回收部分

  • 是什么/proc/meminfo中的SReclaimable(可回收Slab)被计入Buff/Cache,而SUnreclaim(不可回收Slab)则不被计入。

    • 可回收Slab:如目录项缓存(dentry)、索引节点缓存(inode_cache)。这些可被回收,并被计入Available

    • 不可回收Slab:一些内核数据结构占用的内存,无法回收。

  • 查看命令

    bash
    grep -E 'SReclaimable|SUnreclaim' /proc/meminfo

内核如何计算 Available?(深入原理)

Available 的值在 /proc/meminfo 中是这样计算的(简化版):

bash
# 查看精确值
grep Available /proc/meminfo

# 内核的估算逻辑(概念上):
Available = Free + (PageCache的总和 - 其中不可立即回收的部分) + (SReclaimable * 权重系数)

不可立即回收的部分 主要通过以下方式估算:

  1. 统计所有“干净”的页面(未修改的缓存),这些可以瞬间回收。

  2. 估算回收“脏页”的成本,并根据系统当前压力、I/O负载等因素,决定将多大比例的脏页计入“可用”资源。在内存压力不大时,内核可能保守估计;压力大时,会更积极地将脏页的潜在回收能力计入。


一个具体的诊断例子

假设您的系统 free -h 显示:

text
              total        used        free      shared  buff/cache   available
Mem:            16Gi        10Gi       500Mi       1.0Gi        5.5Gi        4.5Gi

分析

  • buff/cache 有 5.5Gi

  • available 有 4.5Gi

  • free 只有 500Mi

计算 available 的来源
4.5Gi ≈ 0.5Gi (free) + [5.5Gi (buff/cache) - 约 1.5Gi (不可立即回收部分)]

查看这“约1.5Gi”不可回收部分的具体构成

bash
# 1. 查看脏页大小
cat /proc/meminfo | grep Dirty
# 假设输出 Dirty: 800000 kB (约0.76Gi)

# 2. 查看Slab分配
cat /proc/meminfo | grep -E 'SReclaimable|SUnreclaim'
# SReclaimable:  400000 kB  (约0.38Gi,这部分是buff/cache的一部分且可回收)
# SUnreclaim:    200000 kB  (约0.19Gi,这部分不属于buff/cache)

# 3. 粗略估算
# 不可立即回收部分 ≈ 脏页 + 其他难以估算的正在使用的页
# ≈ 0.76Gi + (0.5Gi ~ 0.7Gi) ≈ 1.3Gi ~ 1.5Gi

这个估算结果与上面的分析基本吻合。

结论与建议

  1. Available 是一个智能估算值,而非简单加减。它告诉你在不引起严重I/O阻塞或进程错误的前提下,能安全分配多少内存。

  2. Buff/Cache 和 Available 的差值,主要反映了脏页的数量和回收成本

  3. 当系统内存压力极大时,内核会启动激进的后台回写,将脏页刷入磁盘,从而将它们转变为“干净页”,增加 Available 的估算值。但这个过程会导致I/O争用,可能使系统变慢。

当您需要精确分析时,请使用 cat /proc/meminfo 获取原始数据,并重点关注 DirtyWritebackSReclaimable 这几个指标。它们正是 Buff/Cache 中那些“看得见但暂时用不了”的部分。

2025年11月28日星期五

问题:flask子类线程启动问题

 问题:_thread.start_new_thread(app.run())

_thread.start_new_thread(get_list()) 其中app=Flask(__name__) 为什么运行后_thread.start_new_thread(get_list()) 线程一直没有启动机会呢?flask类有什么特别的原因吗?

解决:

 Flask 应用默认是阻塞式的,它会独占主线程,导致后面的线程没有机会执行。

🔍 问题根源分析

app.run() 方法启动的 Flask 开发服务器是一个无限循环,它会一直监听 HTTP 请求,阻塞当前线程。因此,_thread.start_new_thread(get_list()) 这行代码根本没有机会执行。

✅ 解决方案

将 Flask 放在子线程中

2025年11月24日星期一

穴位测试笔记-养老穴

 养老+灸: 左手30分钟左右,当时没有太多反应,但晚上的梦非常的焦虑,上课没有地方,一直在找,后来找到很多的非常小方形门有圆形开口的奇怪位置,原来是卫生间,自己没去但感觉还是不好,出来的位置说是课堂当有蛇胆做粥的地方,突然感觉很害怕就醒来了,总体感觉前期焦虑,后来害怕。不好。至少这个测试不好。2025-11-21晚8:45~9:15左右。---问了deepseek说是艾灸养老穴扰动心经了,所以焦虑,而22日是小寒本就是要阴阳分离的日子自己好像时间确实也不太恰当,但还是感觉有问题,首先养老是补小肠的吧?这个过程应该都是在入能量,如果都是入表里应该是心神的焦虑可以解释,但恐惧呢?火反克水?还是感觉牵强,但确实暂时不打算测试这个组合了。体感非常不好。

另外在想自己对感觉好的体验中,有多少是透支肾精来完成的,有多少是真正补益气血完成的?这个在第四环境实验中应该要考虑,并且最好有测量方式。