我在淘宝上花了28块钱,买了一个很奇葩的东西。

它长得像个U盘,但比U盘还小,没有任何按钮和指示灯。

它叫虚拟显示器欺骗器。

它唯一的作用,就是插在MacBook的Type-C口上,让macOS误以为外接了一台显示器。

于是即使你合上盖子,电脑也不会进入休眠。

抽象不抽象?

我为什么需要这玩意儿?

因为我需要我的Claude Code、OpenClaw、Hermes Agent在我不在电脑前的时候继续干活。

我给它布置了任务,然后我得出门。

但Mac有一个挺让人窒息的设定:合盖就会休眠。

任务跑到一半,盖子一合,全部暂停。

这个28块钱的小配件,就是我不得已的解决方案。

现在,这个东西基本可以退休了。

五一假期前,TRAE SOLO悄悄上线了Mobile端。

我试了一下,对于大部分任务而言,我不再需要带着电脑跑了,带手机就行。

作为一个AI自媒体博主,我的主要生产力工具是电脑,这没什么好说的。

但我的很多选题灵感,很多都不是在电脑上想出来的。

饭后在公园溜达刷到一条推文,蹦出一个分析角度。

开车的时候听了个播客,觉得某可以和另一个话题做交叉。

然后呢?

打开手机备忘录,匆忙记几个关键词。

等回到电脑前,有时候关键词看着莫名其妙,还得花时间重新进入状态。

这中间是有损耗的。

我想过很多解决方案。

比如用语音备忘录,回去还得听一遍;

在手机上开个ChatGPT聊两句,上下文和我电脑上的工作流完全割裂,回去还得手动搬运。

这样的摩擦是真实的:

手机端和PC端的生产力配合,中间有一条鸿沟。

不止我这样的野生科技作者觉得这一点很痛,这几乎是所有上班族都有的困境。

比如你是运营或者市场:上午在公司电脑上写方案,中午出门见客户,路上想到了一个更好的推广思路,只能发条微信给自己回头再说。

下午带个手机去开一个轻松的会,结果老板突然跑一个数据。

但数据只能回到工位电脑上跑;晚上到家想继续下午没改完的PPT,但公司电脑没带回来。

开发者的处境可能更痛:

编译跑了一半,人得赶飞机,到了机场想继续debug?

对不起,你的开发环境、你的终端、你的调试状态全锁在那台被托运的MacBook Pro里。

传统的远程桌面方案,向日葵、TeamViewer我都试过。

体验实在不咋滴。

手机上操作桌面系统,触控和鼠标的交互逻辑不同,分辨率压缩后字小看得人眼镜疼,延迟也不小。

我们用手机的时候其实不想模拟电脑,我们想要的是说一句话就把事办了。

PC和移动端终究没有无缝连接。

在没有Agent的年代,我们离开电脑是完全不能干活的。

但在Agent时代,我们要的是自己不能干,通过手机下指令,让Agent丝滑地干活。

TRAE SOLO Mobile的产品逻辑,第一眼看上去很简单:出了个手机版。

但仔细拆解,你会发现它和市面上那些把PC功能硬搬到手机上的产品完全不是一个思路。

那么问题来了——如果不是简单做个手机版APP,TRAE SOLO Mobile到底在做什么?

答案是:它把Agent的手机端、电脑端和云端无缝地连接到了一起。

你在手机上下达指令,Agent在云端或PC端执行任务,你随时可以在任意设备上查看进度、介入修改、继续推进。

它没有试图让手机变成电脑,它让手机做手机最擅长的事:随时随地、轻量交互、快速决策。

具体来说,TRAE SOLO现在有三个端:

第一,TRAE SOLO桌面端,轻量独立客户端,Code + MTC 双模式,面向全互联网上下游。

第二,TRAE SOLO Web端,浏览器即开即用,随用随走,满足轻量化、便捷化使用需求。

第三,也就是这次的重头戏——Mobile端,打通PC与Web的使用链路,三端首次面向全量用户开放,不再需要邀请码。

三端之间的协同逻辑是这样的:

你在包括手机在内的任意端发起任务,Agent在云端或PC运行,三端随时接管,无缝流转。

你到了电脑前,打开SOLO桌面端,之前手机上发起的任务进度、对话记录、产出文件,全部都在。

你可以在电脑上做更精细的修改,然后出门之后又可以在手机上继续跟进。

同时手机也可以充当电脑的遥控器,在外出时随时随地指挥电脑处理本地任务。

没有上下文丢失,不用手动搬运,也不需要二次解释。

整个工作流像水一样在三个端之间流动。

废话少说,看我的几个Case——

我提前几天参与了TRAE SOLO Mobile内测,这里分享三个真实场景,确实实用、好用——

场景一:在手机上聊出一个工具,回到电脑就做好了

事情是这样的,最近我想追踪arXiv上每天新发布的AI论文,看看有没有值得挖掘的选题。

但问题是arXiv每天几百篇论文,我不可能全看,我需要一个工具帮我按照特定标准自动筛选。

这些标准包括——

作者单位是顶尖名校或前沿AI机构(OpenAI、Anthropic、DeepMind、SSI、DeepSeek、英伟达这些)。

研究主题有趣味性和可读性,选题贴近大众关切。

我在周末和娃在海淀公园野餐的时候想到了这个需求,以前的我会在备忘录里记两句,然后第回到家在电脑前再慢慢折腾。

但这次我打开了TRAE SOLO Mobile,直接用语音和它讨论。

这个语音交互的体验确实非常舒服。

很像和一个真人同事在语音通话讨论方案。

我说我的需求,它会有来有回地追问细节——

你说的顶尖名校具体包括哪些?哈佛、MIT、斯坦福算,清华北大算不算?筛选标准的优先级怎么排?产出的报告你希望是Markdown还是PDF?每天筛选几篇?

讨论过程中有一个细节让我印象深刻:遇到不确定的信息,它会现场去搜索——

比如arXiv的API接口规范、某些机构的英文缩写、每日论文的平均数量——然后把搜到的结果融入讨论,而不是让我去查。

讨论过程它不会抢话,你说到一半停下来思考,它会安静地等你2秒。

停顿的分寸感拿捏得不错。

但如果它说的不是你想讨论的方向,你可以随时打断,它会立刻调整。

我中途打断了两次:

一次是它建议用邮件推送结果(我觉得没必要),一次是它建议接入LLM做智能评分(我觉得第一版先做基础版就行)。

整个过程真的挺自然的。

4分钟左右的语音讨论结束后,SOLO自动生成了一份结构化的讨论纪要,包括需求总结、技术方案、筛选标准、输出格式。

接下来我在手机上再用语音发送一个指令:就按讨论的方案办。

然后我就不管了。

晚上回到电脑前,打开TRAE SOLO桌面端。

Agent的执行过程一目了然——

创建了项目结构和配置文件,开发了arXiv API抓取模块,开发了论文筛选模块(包含机构匹配和话题评分)。

开发了Markdown报告生成模块,开发了主程序入口并测试运行,还贴心地添加了使用说明和定时任务配置指南。

我再给它一些修改意见,20分钟之后,一个arXiv论文筛选工具就搞定了。

测试结果:用2026年4月27日的数据实测,扫描了424篇论文,精选出5篇,报告已经生成好了。

整个过程,从我下午在海淀公园下指令,到晚上拿到一个完整可用的工具,中间我没有写一行代码,非常丝滑。

我突然发现了一种新工作模式,长期坐在电脑前让我的颈椎有些不舒服,看来之后我可以抽出很多时间在公园边散步边工作了。

唯一需要克服的就是在户外对着一个AI说话的羞耻感。

噢,对,我可以戴个耳机,这样别人就会认为我在打电话了。

场景二:手机远程操控电脑做PPT

第二个场景更直接粗暴。

我前面不是开发了一个论文筛选工具嘛,第二天我就捞到了一篇不错的论文,讲AI福祉的。

但是我在外面如果想看这篇超过70页的全英文论文,阅读体验是很差的,所以我就想先把这篇论文做成一个 PPT。

以前遇到这种事,要么回家开电脑,要么用远程桌面勉强操作——都很痛苦。

这次我在手机上打开TRAE SOLO Mobile,选择了MTC模式,直接给它下指令:

请帮我把我电脑上“AI论文”这个文件夹里名为《AI福祉和痛苦研究》的PDF论文生成一份20页的PPT。

底部显示它连接到了我的电脑(名为松果),选中了Documents文件夹。

Agent开始在远程PC端工作——读取PDF、提取核心内容、设计PPT结构、生成幻灯片。

我在手机上可以看到任务进度,完成后直接在手机上预览。

这个场景的核心价值在于——

你不需要远程桌面那种低效的屏幕操控,你只需要用自然语言告诉AI你要什么,它直接调用PC端的算力和文件系统帮你完成。

手机上打的是一段话,PC端执行的是一整套完整的操作流程。

场景三:双端调试Mac日抛小应用

我最近还买了一个这样的奇葩外设——脚踏按键,我想用脚来Vibe Coding,具体就把它映射到我的语音输入快捷键上。

踩一下,开始口喷,爽不爽?

但有一个问题,这个脚踏外设只支持Windows,不支持Mac。

以往遇到这种情况,我只能选择退货,但现在不是有强大的模型嘛,产品不支持,我就让它支持。

我确认了它的2.4GHz的无线频率在我的Mac上是能识别的,只是没有专门给Mac写自定义按键设置软件,这就很简单了。

我将它的无线接收端连上我的Mac扩展坞,然后就出门悠闲地陪娃去吃麦当劳了,在麦当劳里,我在手机端给TRAE SOLO下了这样一条任务——

等1个小时之后,我回到家,Mac上的脚踏键盘的自定义工具第一版就开发完成——

我简单调试了一下,然后让它改了改UI,一个本来要退货的外设就在我的Mac上完美运行——牛逼!

这TM不就是传说中日抛型软件嘛。

没错,这三个场景的共同点是——

我的工作可以在Web、手机、PC端无缝流转,手机端的交互极度轻量——语音、文字、一个按钮,但它可以驱动的是完整的Agent执行能力。

此外TRAE SOLO也支持了飞书Cli接入,用户输入框粘贴飞书文档链接后,可以自动解析文档名称。

定制的飞书面板支持多种灵活的操作,对办公人士非常友好。

体验中还有一个完成度很高的功能:定时任务。

我跑了一个很多博主都会跑的定时任务——

“抓取Hacker News、The Information、Twitter(X)、Product Hunt上与AI相关的新闻和讨论,整理成中文摘要,按重要性排序,生成一份日报推送给我。”

SOLO会在PC端按照预设的时间自动运行Prompt,抓取数据、调用工具、生成报告。

目前定时任务的结果需要在PC端查看(Mobile端暂时还不支持查看结果),但对我来说够用了——早上到工位,日报已经在那里等着我了。

这个功能应用其实很广泛——

你可以设定每周五下午自动生成一份数据周报,可以设定每天下班前自动备份和整理当天的工作文档,可以设定每天凌晨自动跑一个竞品监控脚本。

本质上,SOLO的定时任务是一个7×24小时待命的自动化系统。

对于那些需要重复执行、有固定时间节点的任务,这个功能完成度很高。

另一个值得注意的信息:TRAE SOLO这次上线了Windows版本。

这意味着它不再只是Mac用户的专属。

中国市场有大量Windows用户,尤其是企业用户和非技术岗位的员工,Windows覆盖对SOLO的用户基盘扩展是量级上的提升。

TRAE SOLO Mobile做的事情,放在更大的行业背景下看,其实是一个正在被多家公司同时验证的方向:让AI Agent真正变得随身。

Anthropic在今年1月推出了Claude Cowork——一个基于桌面端的AI Agent工具。

到了3月,它发布了Dispatch功能,用户可以通过手机上的Claude App向桌面端的Claude下达任务,包括操控电脑、处理文件、定时执行。

TRAE SOLO Mobile的核心逻辑其实也是这样的。

OpenAI的Codex也在做类似的事。

Codex CLI现在支持终端、桌面App、网页、IDE扩展和iOS五种形态,共用一个ChatGPT账号,开发者可以在任意设备上发起编程任务,Agent在云端执行。

开源社区也在跟进,一个叫Happy Coder的项目,提供了端到端加密的移动客户端。

可以从手机远程控制Claude Code和Codex CLI的终端会话,支持设备间即时切换和推送通知。

OpenCode采用了客户端/服务器架构,你可以在电脑上运行Agent,通过手机App远程操控。

这些信号指向同一个结论:PC端的AI Agent接下来一个重要进化方向就是:跨端协同,在让工具跟着人走。

当Agent足够可靠、协议足够统一、跨端体验足够丝滑的时候,用户自然不再接受被钉在一台电脑前面。

TRAE SOLO Mobile选择在这个节点推出,时机卡得非常准。

体验了一周TRAE SOLO Mobile之后,我有几个比较强的感受。

第一,语音交互在Agent场景下被严重低估了。

大多数AI产品把语音仅仅当成一个文字输入的替代方案——你说话,它转成文字,和你打字没有本质区别。

但TRAE SOLO Mobile的语音讨论做到了一个不同的层次:它超越了语音输入,它是语音协作。

你在和Agent讨论方案的过程中,工作就已经开始。

第二,跨端协同会持续提升Agent的渗透率。

OpenClaw加入IM其实就是一种跨端协同,而TRAE SOLO更进一步——

它超越了任何单一设备上的单一应用,而是跨设备协同的工作流系统。

仔细想想,这其实也是人类使用工具的自然方式,没有人会在手机上写一份10万字的研究报告,也没有人会在蹲马桶的时候拿出笔记本电脑。

设备的物理形态决定了它的最佳使用场景,强行把PC体验搬到手机上(远程桌面模式)或者把手机体验搬到PC上(各种手机投屏方案)都是在和人的自然行为作对。

SOLO的思路是顺着人的行为走——你用什么设备,就给你那个设备最舒服的交互方式,但后台的Agent是同一个,数据是同一份,任务是连贯的。

第三,全量开放是一个重要信号。

TRAE SOLO自发布Beta版以来,一直采用邀请码制度,我当时也是费了不少力气才搞到码。

目前已经三端全量开放、取消邀请码。

说明字节对产品成熟度有信心了,对用户来说,这意味着一个完整的跨端协同的体验,终于可以零门槛获得了。

我看TRAE官方还和星巴克联名,用户下载移动端就可以喝到TRAE官方请客的咖啡,感兴趣的同学可以去下载领取。

结语

那个淘宝上28块钱的显示欺骗器,某种意义上代表了一个时代——Agent的石器时代。

现在这个时代正在过去,工具开始适配人了,你在哪里,AI就在哪里。

我打算把它留着,作为一个纪念品。

纪念那个有点草台的AI时代。

——End——