将语音识别文本转化为G-code或坐标指令的完整实现指南

10次阅读

将语音识别文本转化为G-code或坐标指令的完整实现指南

本文详解如何将whisper.cpp识别出的语音文本,经结构化处理后生成符合手写风格的g-code指令,并驱动基于arduino+cnc shield的绘图机器精准落笔书写。涵盖文本预处理、字体路径矢量化、坐标映射、g-code生成及硬件协同控制全流程。

要将语音识别结果(如通过 Whisper.cpp 得到的纯文本)真正转化为能驱动 CNC 手写机器的可执行指令,不能仅依赖“文本→字符串→逐字打印”的简单映射——关键在于语义理解 + 笔迹建模 + 运动规划三者的闭环整合。以下是经过工程验证的分步实现路径:

一、语音识别后文本的规范化处理

Whisper.cpp 输出常含标点冗余、停顿词或识别误差(如 “hello comma world”)。需先清洗:

import re def clean_transcript(text):     # 移除口语填充词、标准化空格与标点     text = re.sub(r'b(um|uh|like|you know|so|well)b', '', text, flags=re.IGNORECASE)     text = re.sub(r'[^ws.,!?;:—-]', '', text)  # 保留基础标点     text = re.sub(r's+', ' ', text).strip()     return text  # 示例 raw = "hello um world — how are you ?" cleaned = clean_transcript(raw)  # → "hello world — how are you?"

⚠️ 注意:避免直接用 split() 切分句子——中文无空格分词,英文长句需依标点+语法边界切分(推荐使用 nltk.sent_tokenize 或 spacy)。

二、从文本到手写坐标的本质转换:不生成字体位图,而生成笔迹矢量路径

你现有的 CNC 机器支持 G-code,但标准 TTF 字体转 G-code(如 Inkscape 的 Text to Path + gcodetools)生成的是印刷体几何轮廓,缺乏连笔、提按、速度变化等手写特征。真实方案应为:

  • 使用手写风格矢量字体(如 JournalDancing Script),导出 svg 路径;
  • python 解析 SVG 数据,提取贝塞尔控制点,采样为密集坐标点序列(每毫米 5–10 点);
  • 叠加手写动力学模型:对每个字符间添加微小偏移(±0.3mm)、模拟笔尖抬落(M 移动 vs L 绘制)、变速(起笔/收笔减速,中段加速)。

示例(使用 svgpathtools 提取路径):

from svgpathtools import svg2paths import numpy as np  paths, _ = svg2paths("handwritten_hello.svg") all_points = [] for path in paths:     for i in range(len(path)):         # 采样路径上均匀分布的点(含贝塞尔插值)         t_vals = np.linspace(0, 1, 20)         points = [path.point(t) for t in t_vals]         all_points.extend([(p.real, p.imag) for p in points])  # 输出为 (x, y, pen_down) 元组列表 coordinates = [(x, y, 1 if i > 0 else 0) for i, (x, y) in enumerate(all_points)]

三、生成兼容 Arduino CNC Shield 的 G-code

你的硬件(Arduino UNO + CNC Shield V3 + A4988)通常运行 Marlin 或 GRBL 固件。需输出标准 G-code 并严格遵循其运动约束:

  • 使用 G0(快速定位)抬笔,G1(直线插补)落笔书写;
  • 添加 M3/M5 控制伺服(假设 M3 S40 表示下笔,M5 抬笔);
  • 设置合理进给率(F 参数):手写推荐 F150–F300(mm/min),避免抖动;
  • 坐标系原点建议设于纸张左下角(A4:0,0 → 210,297 mm)。

生成片段示例:

G21          ; 设为毫米单位 G90          ; 绝对坐标模式 G28 X0 Y0    ; 归零(可选) M5           ; 抬笔初始位置  ; 写字母 'h' G0 X10.0 Y50.0 F500   ; 快速移动到起点 M3 S40               ; 下笔 G1 X10.0 Y120.0 F250  ; 竖线 G1 X25.0 Y120.0 F250  ; 横线 G1 X25.0 Y80.0 F250   ; 弯钩竖线 M5                   ; 抬笔

四、端到端集成建议架构

Microphone → Whisper.cpp (C/c++ inference)          ↓   Python 后处理(clean → split → char-by-char mapping)          ↓   SVG Font Renderer + Path Sampler → Coordinate stream          ↓   G-code Generator (with pen control & feed tuning)          ↓   Serial Write to Arduino (via pyserial, 115200 baud)          ↓   GRBL/Marlin executes motion + servo commands

? 关键提示:不要尝试在 Arduino 上实时解析语音或渲染字体——算力不足。所有复杂计算必须在 Raspberry Pi(或 PC)端完成,Arduino 仅作为运动执行器。参考开源项目 grblHAL 支持更灵活的自定义命令扩展。

替代可行路径(若 SVG 手写字体效果不佳)

  • 训练轻量级笔迹生成模型:用 Sketch-RNN 数据集微调 Tiny lstm,输入字符 → 输出 (dx, dy, pen_state) 序列;
  • 采用开源手写引擎:如 CalliGrapher(Python 实现,支持自定义笔触参数);
  • 硬件级优化:在伺服电机上加装压力传感器,反馈调节 Z 轴高度(模拟用力轻重),提升真实感。

最终,这不是一个“语音转 G-code”的单点问题,而是一个跨模态人机协同系统。从语音识别准确率、文本语义分块、手写动力学建模,到 CNC 运动学平滑性,每一环都需针对性调优。建议以单字符(如 “a”)为最小闭环,验证端到端延迟

text=ZqhQzanResources