[[ 比 [ 性能更高、更安全:[[ 是 shell 关键字,无 fork 开销,支持正则和模式匹配,语法检查在解析阶段完成;[ 是外部或内置命令,需严格引号防空值错误,且不支持 =~。

shell 中 [ 和 [[ 判断性能差在哪
用 [(即 test)还是 [[,不只关乎语法习惯,更直接影响脚本健壮性和执行速度。前者是 POSIX 兼容的外部命令或内置命令,后者是 bash/zsh 等 shell 的关键字,解析阶段就完成语法检查,不启动新进程。
-
[要求参数严格配对:比如[ "$var" = "abc" ]中引号不能省,否则空值会导致语法错误[: =: unary operator expected -
[[支持模式匹配和正则:[[ $file =~ .log$ ]]可直接用,[不支持=~ - 在循环内高频调用时,
[[比[快 2–3 倍(实测 10 万次判断,bash 5.1 下差约 80ms),因为免去了 fork + exec 开销 - 注意兼容性:Alpine 默认 ash/sh 不支持
[[,硬切会报错sh: [[: not found
for 循环遍历文件名含空格的路径怎么写才不崩
绝大多数 shell 循环崩在没处理好字段分隔——默认用空格、制表符、换行符切分,而文件名本身可能含空格甚至换行符。靠改 $ifS 或加引号只是半解,真正可靠的是避免字符串分割,改用 glob 或 find 驱动。
- 别写
for f in $(ls *.txt); do ...:命令替换会先按 IFS 拆词,空格文件名直接被切成两段 - 正确做法是用 glob 直接展开:
for f in *.txt; do [ -e "$f" ] || continue; ...——*由 shell 自己展开,保留原始文件名 - 需要递归或复杂筛选时,用
find ... -print0 | while IFS= read -r -d '' file; do ...,-print0和-d ''配合绕过所有分隔符问题 - 如果非要用数组存一堆路径,务必用
mapfile -t arr ,而不是 <code>arr=($(find ...))
while read 循环读取大文件为什么越来越慢
不是 while read 本身慢,而是常见写法触发了「逐行 fork 子 shell」或「重复打开文件描述符」,导致系统调用堆积。尤其在管道中嵌套命令时,每轮都新建子进程,开销指数级上升。
- 错误写法:
cat huge.log | while read line; do echo "$line" | grep "Error"; done—— 整个while在子 shell 中运行,变量赋值对外无效,且每行都启一个grep - 正确写法一(减少进程):
grep "ERROR" huge.log | while read line; do ...,把过滤提到外面 - 正确写法二(避免子 shell):
while read line; do ...; done ,重定向输入,<code>while在当前 shell 执行 - 超大文件(>1GB)建议用
awk替代纯 shell:单次加载、内置字段处理、无 fork 开销,awk '/ERROR/{print $0}' huge.log比等效 shell 快 10 倍以上
case 语句里通配符匹配失败的三个隐藏条件
case 看似简单,但实际匹配失败往往卡在三个易忽略的 shell 行为上:glob 展开时机、引号抑制、以及 extglob 开关状态。
- 模式部分不进行变量展开:写
case $val in "$prefix"*)是错的,"$prefix"*会被当字面量,应写$prefix*)(不加引号) - 如果用了
shopt -s extglob,像*(pattern)这类扩展通配符才生效;但默认关闭,且 dash/ash 完全不支持 - 匹配时会做 pathname expansion:如果模式里有
*或?,且当前目录下存在匹配的文件,case可能意外命中真实文件名而非字面模式 —— 解决方法是确保模式不含未转义的 glob 字符,或提前set -f关闭路径展开
这些细节不写进文档,但每次出问题都要花半小时查 shell 手册的 «Pattern Matching» 章节。最稳妥的做法,是把复杂分支逻辑交给 if [[ ... =~ ... ]] 或外部工具(如 awk),别硬撑在 case 里。