072025.12

我找到了最具性价比的AI编程工具方案

现在,已经完全离不开AI编程工具了,我的新项目 WebCut 中AI的参与度非常高,起码有 30% 的内容是AI生成的,特别是文档和一些细节算法,我则主要是把握整体的架构和方向。但是,在使用 Claude 时,高昂的成本实在是太让我心痛了。怎么控制成本,变成了一件头疼的事,当然,如果不差钱,无脑上最优模型才是正解。

经过一番折腾,我在Trae中使用Claude Code,感觉体验还是非常不错的。使用Trae的免费模型可以做一些常见的任务,比如写文档、总结和梳理代码逻辑等等,这些用免费的模型生成后,让它保存到一个文档里,然后再用Claude Code写代码,把免费生成的素材作为参考信息,这样既可以享受Claude的指哪儿打哪儿的编程体验,又能节省一些不需要代码思考的token。

上面就是我现在的工作区域截图。代码区域已经变得无足轻重了,主要承担代码预览和检查的作用。中间的claude code则是编程的主力军,右边的Trae则是干一些不需要代码精准度的事,随时可以关闭起来。另外,配合claude-code-router还可以路由模型到不同厂商,节约成本,感觉也是不错的。

12:53:09 已有0条回复
142025.10

密码保护:南方冬季采暖,水地暖、电地暖还是暖气片,这一篇深度调研把方案和费用都讲透了

此内容受密码保护。如需查阅,请在下方输入密码。

21:54:06 已有0条回复
072025.10

从2019年的一款换脸产品,聊到Sora2,Web2.0从未消逝

随着AI时代的到来,很多关于互联网思考的观点出现,其中有一种声音指出,互联网正在消亡。这是因为,代表用户身份认同的Web2.0正在强大的商业社会中,逐渐式微。Web2.0是UGC社交时代,其本质内核是个体身份认同。我们自己写一篇文章表达自己的观点,或者发一篇图文以彰显自己的个性,甚至到后来通过短视频表达自己的价值取向。但是,这种全网热烈的表达欲,随着推荐流量为王的时代的到来,逐渐被淡化。然而,当Sora2再度火爆全网时,我猛然意识到,这种表达欲从未消逝,只不过换了形态。

为什么Sora2会爆火?

Sora2不是单纯的一个视频生成模型或工具,而是一款App。作为一款互联网产品,它定义了一种信息流的形态。在Sora App中,用户自己被尊为一等公民,其他所有的交互、技术,都围绕用户的创作欲展开。它的产品设计,不是为了发布一项技术载体而存在,而是通过激发用户的自我表达,形成一种基于创作的陌生人弱社交。

首先,Sora App提供了一项用户主角概念的构建,让用户通过Cameos把自己转变为可被(包括自己在内的所有用户)支配的视频主角。这是Sora2爆火的根本原因。所有基于sama创建的各种创意视频,从某种意义上完成了对创作本身的诠释,即故事本身并不重要,人在故事中的冲突才是最重要的。人们的创意就像无限的能源,源源不断,不会枯竭。然而,在这个时代中的个体认同确实稀缺的,创意本身如果不附带价值认同,则毫无乐趣。

其次,Sora App还提供了Remix功能,看上去好像是一个“视频编辑”的功能,然而实际上它是一种再创作。被用于remix的视频,本身并不参与再创作的素材内容,而只是一种灵感激发,当用户看到一个视频突然出现灵感时,他/她可以通过remix将灵感快速转变为可视化的结果,这种快速实现创意的过程,让人能在过程与结果之间,最快获得反馈。而对于被remix的用户而言,自己的创意给别人带来新的灵感,也就获得了价值认同。

最后,分享和喜欢是社交的基础功能,但是和其他社交中传递信息流不同,Sora App中的分享并不传递信息本身,因为它里面的视频全是AI生成的,全是虚无的,没有实际的信息价值,但是,它的社交属性在于创意的传递。人类在进入AI时代之后,信息、知识会逐渐变得廉价,而好的创意会成为稀缺资源,人们在对信息和知识无感之后,转而对好的创意报以热烈的喜爱。

从观点认同到角色认同

2019年,有一款名叫ZAO的视频换脸App突然火爆,但在随后的短短1个月内,由于侵犯用户权益问题被快速下架。我敏锐的意识到,时代变了。主要有两点原因:1.换脸技术已经成熟,核心门槛在于数据不够;2.人们对现实中的真人,在社交网络中扮演角色,将成为价值认同的核心追逐点。结果不出所料,短短几年之间,抖音攻城略地,成为国内唯二的社交顶部应用。

在AI成为主流声音之前,2023年底,chatGPT才进入普通大众视野。从2019年开始,传统的内容逐渐失去关注,facebook、微博这类信息流社交开始示微,很多著名的媒体人离开媒体行业转而在短视频、自媒体领域寻找出路。2024年,天涯爆出一篇新的热文,此外绝大部分时间,我们听到天涯的消息都是“快关门了”。在程序员界,CSDN这个原本的内容社区变成SEO病毒。总总这些,都说明依托文本内容传递观点的时代过去了,通过写一篇文章来获得社会关注的功能几乎完全丧失。而另一方面,通过建立人设、办自媒体、做个人IP来获得粉丝,以流量之名,以商业逻辑来进行创作,成为新的“时尚”。

然而,在新的“时尚”引领下,人们的审美也开始疲劳了。因为看似五花八门不同的作品,本质上却都几乎完全相似。社交变成了流量,个体认同就被裹挟了。

实际上,我们认真去研究ZAO和Sora App,会发现两者有非常相似的地方。首先,以用户为中心去构建内容,把用户捧到创作核心与演绎核心的地位,让用户得到“爽”的快感。其次,以社交分享为手段,实现快速的传播,让用户可以通过传播,把自己这个角色,展现在社交媒体中,以此获得来自环境的认同。只不过由于技术的限制,ZAO是固定视频片段,也没有remix功能。

在这个焦躁且枯燥的时代下,这种自我认同的社交会变得非常有意义。我认为Sora App正好踩在这个点上。

非生产力而是平台

Sora2的视频生成能力非常强,最大的亮点在于,极度智能的脚本能力和极高的视频真实度。然而,非常遗憾的是,我认为,Sora不会是生产力工具。它和其他视频生成模型有很大的区别,它有很多限制条件,这些限制正好是冲着生产力来的,它不希望我们这类玩技术的把它的底层能力拿去做其他生产场景的工具,它更希望普通用户在Sora上进行创作生产,它是一个平台。

这也就意味着,它和tiktok有直接竞争关系,需要抢夺tk用户的注意力时间。不过就目前的体验来讲,它虽然已经很成功,用户可以在sora上停留很长时间而不感觉枯燥,但是和tiktok的高粘度比起来,还是逊色很大一截。当然,作为一家创业公司,openAI本质上还是一家技术公司,如何运用sora这样的产品,我觉得还需要等待时间给出答案。如果运营的好,拉入更多的创作者和角色,相信未来它也可以成为一个平台,养活非常多的创作者。

结语

作为一款新兴的App,Sora是这两年最有价值的产品。这几年,很多新应用的发布,无非是把以前的旧功能重新做一遍,旧酒装新瓶。而Sora则是从创作本身出发,去探索一种基于用户为主角的价值认同,它很有可能对现在的社交媒体发起冲击。

19:49:08 已有0条回复
042025.9

AI看片,Nano Banana最令人欣慰的能力,远不止于P图那么简单

大概两周前,坊间爆料Nano Banana是google的新一代图像模型,在等待了大概两周后,google终于官宣,并上线了新的gemini flash版本,但可能Nano Banana这个名称实在太有意思了,google首次在正式产品中使用预览版的别称作为最终产品名,现在,在AI Studio中它以自己的原始名字作为模型选项。
Image
这几天,在Nano Banana已经成为公众号的热点词,我已经在公众号看到好多篇关于用Nano Banana来P图的玩法的文章了。但是,我今早突然意识到一个问题,为什么google发布的是gemini而非imagen的版本呢?是否意味着,这其实是一个多模态模型,而非一个生图模型?在有了这样的疑惑之后,我开始进行验证,用大模型的方式“你是一个xxx,你会基于用户的xxx,然后xxx”的公式,命令大模型进行推理,结果令人震撼。
接下来,我就将总结Nano Banana的一些常见玩法,以及非常见的令人不可思议的使用场景。以及,我将提供一个我自己开发的可免费使用nano的产品。
一、常见的图片处理场景
P照片
例如去除路人、瘦脸、白平衡处理、色调处理等等以前在手机上需要一个App才能完成的复杂照片处理,现在只需要用一个模型就可以解决。
Image
Image
图片风格转化
例如将照片转化为漫画风格、转化为表情包、变线稿等风格化处理也只需要一个模型就可以完成。
Image
图片转手办照
这是现在网上最流行的一个nano的应用场景,只需要提供一张图,就可以为你生成对应的手办照。
Image
多图融合
多图融合可以让AI帮你把多张图片融合在一起,这是很多其他功能的基础,比如试穿、室内装修等,都是提供一张主图和多张副图,让nano把它们融合在一起。而nano不负众望,几乎可以完美地完成这一任务。
Image
Image
照片修复
不用过多介绍了,在有一段时间火的一塌糊涂的照片修复,现在只需要一个模型解决。
Image
Image
上色或变色
为线稿上色。这个我深有体会,孩子在给线稿涂色的时候没有思路,我就拍了一张照给AI上色,让孩子看一下。
Image
动作引导
通过向nano提供一份人物动作的引导图,可以让原始图片中的人物按照引导图中的动作对齐。
Image
Image
电商图:试穿与解穿
电商场景下,试穿变得更加轻松。同时,还可以把衣服从模特身上脱下来展示。
Image
Image
Image
室内装修
Image
产品结构分析图
Image
配合视频生成模型,还可以将上面的图片作为首尾帧,实现产品拆解效果,这种只有以前的广告后期才能做,现在只需要两个模型搞定了。
剧情演变或补间分镜生成
Nano Banana可以基于给定的图片,提供基于该图的更多演变。(其实照片修复、瘦脸等本质上也是一样的。)
Image
Image
更猛的是,nano还可以基于你提供的图和描述,衍生出剧情。
Image
Image
Image
Image
也就是说,如果有耐心,完全可以用nano banana来实现一部漫画。并且,基于漫画和视频模型,生成一部动漫。想想都很可以。
好了,以上就是我们常见的一些nano的应用场景。当然,由于网友们的脑洞无限大,还有很多其他的场景在开发。
但是,现在还并没有结束。接下来,我才会带来更为令人震惊的nano banana的一些场景。
二、深度学习和研究的工具
正如我文章开头说的,gemini是一个推理模型,nano banana作为gemini的小版本,它的本质还是推理,只不过在推理的基础上,进一步优化了生图的能力,以前gemini生图类似于agent调用工具一样调用imagen来生图,而现在它已经隐藏了工具调用的特征,看上去就是gemini自己在生图。这也就意味着,gemini不仅可以理解图,还能用图给你讲解。
Image
Image
让gemini直接在原图中标注出你不懂的或者需要理解的部分。这使得我们(作为人)可以深度的学习和掌握以前不曾也不敢掌握的知识,例如造火箭、看病。
例如我们对植物感兴趣,在网上看到一朵很奇怪的花,不知道它的名字,那么你可以拍下来,让gemini辅助你学习。
Image
上面是我的一个例子,当我看到这个花的时候,觉得很奇怪,便让gemini为我解释。如果不是gemini生成的图片,我绝对理解不了“兜”的含义,因为原图的视角没有拍出兜来。
Image
此外,你有没有过这样的经历,你去医院拍片(x光片),然后回去找医生,医生随便一瞅,说“你得手术”,你拿过片,看半天看不懂。现在可以让gemini帮你看片了。
Image
Image
通过合理的提示词引导,让gemini理解x光片,并在原片基础上标注出病变的位置。这让我想到曾经有一位中国的极客创办了一个在线看片网站,受到世界卫生组织的关注,但仍然谢绝资助的感人故事。
https://github.com/JimmyLv/awesome-nano-banana
https://github.com/PicoTrex/Awesome-Nano-Banana-images
三、创业感悟和产品推荐
在过去一年里,我做了几个产品,和图像有关。包括我在内的很多做应用创业的朋友,都面临着巨大的痛苦。当我们有了一个不错的点子,吭呲吭呲做了小半年,产品上线了,也获得了一些关注,结果最后大厂的一次模型升级,就把我们的功能覆盖了。
这次nano banana出来之后,我在网上也听到了一些哀嚎,很多人投身在comfyUI的道路上,但是随着大模型的升级,一起要用复杂流水线才能完成的,现在只需要一段提示词就可以了。这对原本做comfy的人而言,真的是一次打击。
我也在不断反思,到底做什么样的产品,才不至于由于大厂模型的一次升级,就不再需要我们这样的产品了呢?现在很多做agent产品的创业团队,其实也是一样的。像openAI、google、微软这样的公司,直接在大模型层面就可以实现agent的能力,把工具封装起来,你都不知道它是在调用agent,例如写代码、做设计稿这些。
最后,我终于明白了一个道理。就像我们行业流行的一句话,“能用javascript实现的,一定会被javascript实现”,这个背后的墨菲定律告诉我们一个道理,只要我们现在能想到的,无论看上去多么离谱,它都有可能实现。所以,“能用AI完成的,一定会被AI完成”不是一句玩笑。既然AI都能做我们能做的事情了,我们还有什么意义呢?
我觉得,我们的意义就在于“做自己感兴趣的事”。就像这个世界上,有亿万富豪在忙着造火箭,也不妨碍我们在感兴趣的捏泥巴这件事上继续捏泥巴,然后把捏泥巴的过程做成短视频发到网上逗大家开心。我们做自己感兴趣的事,并不是要获得来自谁的认可,而是我们自己感兴趣,即便这个事情已经在别人来看不屑一顾的境地。
我最近更新了很久以前发布的Visor(https://visor.fuuai.com),这是一个AI作画的画布工具,你现在(直到无法使用)可以在它上面免费使用Nano Banana。之所以推荐用它来使用nano banana,是因为在某些场景下,AI并不能直接理解图片中物品的尺寸大小,从而在生图时让物品呈现出错误的尺寸。而画布,则可以让你在一个界面内,按照实物比例和角度来合成草稿图像。一图胜千言:
Image
我想让这位模特穿上这双靴子,但是由于AI无法准确得到这双靴子的实际尺寸,在生成时就有可能显得太肥或太瘦,通过在图片中合理安排靴子尺寸和模特的比例,就可以让AI准确理解其尺寸大小。
Image
同样,这种室内装修的生图,也需要把多个物品按照实际尺寸和位置进行放置。然后让AI生成效果图。
Image
另外,还有一种场景:
Image
这是一张手绘的草图,作者用文字、箭头标识了让AI用来生成新图时的细节提示。也就是说,直接将提示指令写在了图片里面。最后可以得到:
Image
当我们需要在图片中进行提示词标注时,普通的工具做不到,而Visor则可以,因为它是一块画布,你可以在画布上添加文字和箭头来进行标识。
Image
这样,用户就可以更加自由地进行创作,而无需使用专业的工具。
最后,你还遇到过或者认为可以利用Nano Banana的应用场景呢?欢迎在下方留言区评论哦。
13:38:03 已有0条回复
202025.8

之所以将代码编辑器从vscode切换为trae,是因为最近vscode越来越卡,经过一番搜索之后,得知是微软在后台启动了一个报告进程,这个常驻进程会消耗大量的内存和计算资源,虽然可以关掉,但是copilot以及很多扩展无法拒绝,即使勉强使用,还是会越来越卡。而且vscode用国内的编程助手(我用的灵码),会在后台启进程,在活动查看器发现开销非常大,也是拖慢编辑器的原因之一。而现在的trae性能非常好,它自带了AI Agent,可以连MCP,不需要额外挂扩展,因此节省额外的开销,所以,现在赶紧用起来性能就非常好。当然,后续它会不会像剪映一样搞收费,或者功能越加越多也变慢,这个先不管咯,等到那时,在物色一个新编辑器就好了。

12:07:49 已有0条回复
162025.8

即使强如google,也在Safari的视频播放上折戟沉沙

前几天我写了《Safari中无法播放视频,“Failed to load resource: 插件处理的载入” 或 “尝试载入资源时发生错误。”》一文,本来是记录自己在开发过程中遇到的问题和解决过程。然而,今天我在访问gemini特设的veo3页面时,发现视频也都无法播放。在访问replicate的详情页,也遇到了相同问题。没想到,就连google、replicate这样的大公司,竟然也都不在safari上做测试。

右侧这个视频无法播放的界面,是safari标志性的“侮辱”信号。

在上一篇文章中,其实我已经详细阐述了造成这个问题的原因,是safari特殊的视频资源读取逻辑。它严格按照Range Request的模式来请求视频资源,而且同时,它会在第一个请求时读取0-1 bytes来得到完整长度,而且立马丢掉(请求呈红色),然后再重新计算后严格按照Range Request来读取视频的buffer进行播放。

基于Range来读取视频数据虽然理想丰满,但是现实骨感。我打开网络面板,找到了卡住的Range请求,如下:

在这一个请求中,后端要返回14.2M的数据包,这……也太坑了吧,既然你都用Range请求了,为啥不请求一个只有1M的Range呢?而Range包的大小,则是由浏览器(也就是safari)发出的Range请求头决定的,后端也无法决定。

因此,最后其实不是google工程师没有考虑到,而是safari坑。

随后,我将默认浏览器切换成了chrome。

16:35:21 已有0条回复
072025.8

我的mackbook pro是2017年底去香港苹果店买的,到今天已经用了8年了,时间如此之快,恍如昨天。虽然是2017年的电脑,但是现在用来还是很正常,不会有太多的卡顿。不足之处有两点,一是intel的芯片拖后腿,比起现在的M芯片,不仅耗电厉害,而且由于时代久远,稍微跑一点吃计算的程序就风扇呼呼响,开始卡;二是电池,得一直插着电源。我还是很喜欢这台笔记本的,不过电池问题一直是给心头结,没法带着电脑出去装X,有点失望。在纠结很久之后,终于在网上下单了一组电池,今早自己动手给换了,虽然有点笨手笨脚,但是靠着狗屎运没有出一点岔子,现在已经非常愉快的丢开电源用了,内心还是挺喜悦的。芯片没法改,就不计较了,毕竟我现在一直在mini上工作,这台电脑就是偶尔应急或者手持来装的,感觉还能再战10年。

13:32:01 已有0条回复

“什么是Agent”的终极解释

2025年的今天,我们终于可以给出Agent的终极定义,即“智能化自动化的应用程序或服务”。

首先,Agent是应用或服务,而非AI。虽然,我们现在默认AI是驱动Agent的基础,但是,Agent不只意味着AI,那些对AI(特别是LLM)简单套壳的应用不是Agent。Agent本身依赖AI,但不必须依赖特定AI,AI只是它的一个组件,且可以随时切换为更高智能的AI。Agent本质上是应用,就像Java程序以来数据库服务一样,Agent依赖AI,但不参与AI本身的开发。

其次,Agent具有自主性,即无需人工干预自主实现目标。与以往应用程序需要程序员撰写精确逻辑的代码不同,Agent应用中,程序员不实现业务逻辑本身,而是实现逻辑的调度,通过这个调度让程序自动选择业务逻辑节点去执行,如果在Agent框架的加持下,程序员甚至不需要实现这个调度,而只需要实现业务逻辑的节点,应用启动后,每个业务节点在什么时候被执行,完全是由Agent根据用户的输入和当前的状态来决定。

最后,Agent具有单一通识能力,即一个Agent就可以帮用户解决所有问题,包括不同专业领域、不同业务场景、不同目标需求。比如,用户既可以让Agent为自己下一个外卖单(生活场景),也可以让它帮自己完成数据统计(工作场景)。虽然目前来说,市面上的Agent大部分还是倾向于专业能力,例如cursor专注于编程,但是这主要是发展程度不够决定的,未来,cursor这样的工具一定会被淘汰。

11:48:47 已有0条回复
042025.6

历经2个月,我的第一款真正意义上的AI产品上线

大家好,这两个月我完成了一款产品——Videa。虽然过去一年,我做了很多东西,但是部分是套壳,部分是把别人的想法做出来,真正我一直想做的,其实是一款借助AI创作短视频的产品。现在,我把它做出来了。

https://videa.work

下面,我将聊一聊我做这款产品的想法。

生成模型不是产品

我们现在已经有很多图片、视频的生成模型,图片领域有最早的SD、Flux,现在又有了recraft、ideogram等,而且国产的kolors等也获得好评,这几天flux kontext的发布再次震撼了业界;视频生成领域除了最早的Gen2、Pika、PixVerse,到Sora、Voe3,以及国内的混元、可灵、海螺、通义,都已经非常成熟。在如此激烈的生成模型竞争中,我发现,创作者要完成自己的短视频制作,仍然很难。

视频生成模型的厂商们在自家App中提供的视频生成功能,虽然在它们的演示中表现的非常抢眼,然而在实际使用中,普通用户很难一次性得到符合预期的结果。更重要的是,创作这件事本身,是有非常复杂的程序和时间因素的。而生成模型只能创建短时间的随机的视频,通过prompt是无法真正做到按预期生成视频的。

市面上出现了一些Agent模式的产品,例如skyreels,通过Agent来规划和制作长视频。然而其随机性大大增加,如果没有正确识别用户的创作意图,工具甚至会产出与用户意图背道而驰的作品。

总而言之,生成模型虽然好,但是只能解决从0到1的问题,而无法解决1到100的问题。模型本身很难直接成为产品,作为底层的支撑,在模型之上构建真正符合实际使用场景的产品,则是我的想法。

讲好故事而非视觉艺术

在得知AI生成视频的能力已经非常强的时候,我们跃跃欲试的心终于按捺不住,开始尝试将自己积压已久的想法制作成短视频。然而,很快我们就会发现,我们把事情想得过于简单,而工具们又把问题想得太复杂。实际上,我们的核心痛点,是想将我们内心的“故事”用短视频的形式表达出来,这种欲而不得的焦虑,促使我们对现有的AI工具产生质疑。

制作视频本身是一项技术的工作,优秀的视频剪辑,让视频非常出彩,专业的视频制作让一个博主、品牌具有强烈的人设。但是,作为普通人,很难在不以视频为自身主业的情况下,制作出令人称赞的视觉效果。那么,我们能否退而求其次,用朴素的视频,也可以传递我们想要表达的内容呢?

我的理解是,对于绝大多数有此冲动的人们而言,

短视频的本质是讲好一个故事,而非纷繁复杂的视觉艺术。

制作视频来讲述我们内心的故事,并不一定要让我们的视频具有多么高级的视觉艺术,我们都不是导演,拍不出电影级的视觉盛宴。我们的短视频,只是一个普普通通讲故事的人。这是一种表达欲的延伸,是互联网原始的初衷,是网络冲浪中敢于表达自身的内在需求。

在过去很长很长一段时间,文字或更高级的图文内容,充分展示了人们的内心世界。但在多媒体时代,这种表达,被媒体制作的技术要求所约束,以至于让网络平台成为某些人独有的话语权。

我们这个世界需要故事,而现在普通人通过AI,讲好自己的故事已经成为可能。我们绝大部分情况下,不会尝试去制作电影级的视觉效果,我们会用最朴素的节奏和配音,来把我们脑海中的故事,一点点的揉捏出视频的形。这个故事,可以是关于一个天真孩子看到神奇现象时脑海中的奇妙历险,可以是一个经过生活打磨后的中年打工人对年轻人的寄语,可以是科幻爱好者对未来星际旅行的人类空间城的设想,可以是策划人寻找与用户情感共鸣的广告设计,可以是文人们对历史回音里的控诉的无声传递。我们本质上想要短视频把90%的力量用在讲好故事,剩下的10%留给视觉和技巧带来的吸引力。

创作者们的工作流

在生成模型的基础上,创作者们构建了一套行之有效的工作流。总体而言,可以总结为如下:

在抛开需要在视频出现人物,并且保持人物一致性的情况下,这套工作流让创作者们可以利用AI工具,创作尽可能还原自身意图的短视频。而且,这套工作流的厉害之处在于,如果有足够的毅力,甚至可以制作出一部几十分钟的中长片,甚至电影级时长也不是没可能,毕竟即使电影的后期,也需要几个月的制作时间。

而对于AI工具的选择,则不同的创作者倾向不同,文生图有直接在本地部署Flux的,也有在即梦充会员的,音乐生成有网易云和qq音乐的对应平台,也可以去国外的suno等。总之,不同的工具选择,并不影响这一套工作流的具体实施。而这种灵活的组织模式,也可以让创作者们在实现创作的同时,尽可能压缩自己的成本。

化无形为有形

如何做出一款产品,将已知的概念,落地为切实的存在呢?我只抓住一个点,即前文所说的“短视频的本质是讲好一个故事”。从技术层面,短视频的制作中有一个非常重要的要素,就是“时间”,即视频这种形式与其它载体形式的最大区别就是在时间延续上的连贯性,画面的连贯性、声音的连贯性、意境情绪的连贯性。让“故事”在“时间”上行游,就是Vdiea这款产品的原始创意。

说的人话些,Videa的界面第一眼看上去就像一个视频编辑器。它由多个区域组成,其中最占视野的就是中间的视频画布区域和底下的轨道控制区域,轨道控制区域与几乎所有的视频编辑器大致相同。不同的地方在于:

  • Videa没有其它视频编辑器所拥有的素材控制
  • 没有其它视频编辑器的特效和转场
  • 没有其它视频编辑器的超强剪辑能力

它不是一个编辑工具,不是一个编辑工具,不是一个编辑工具!在我看来,它本质上是一个管理工具,你可以直接在Videa中完成上述工作流的全部内容,包括但不限于:

  • 与AI对话来进行故事创作、脚本制作等
  • 通过文生图、文生视频、图转视频等来获得画面素材
  • 通过语音合成来创建配音
  • 无需分镜管理,因为它主动提供了“分镜”类型的轨道
  • 集成了“剧本”类型轨道来获得连续的文案和配音

对于“讲故事”的创作者们而言,视频编辑器上的众多特效特技我们用不上,这种时间轴轨道的形式,仅仅是为了以“时间”的维度来管理我们的分镜和素材,我们会更多的将精力放在我们的故事创作上,用故事的内核(而非视频外在)打动我们的读者/观众,用朴素的方式,传递我们内心的声音。

结束语

从故事出发,一点一点地构砌那个属于我们自己的讲述,一帧一帧画面的跳动,干净而朴素,故事娓娓道来,然后结束。作为一个独立开发者,我有很多故事可以讲,而Videa就像一位老朋友,它慢慢的倾听,并把我的故事用短视频的方式,呈现给每一个恰到好处相遇的人。

AI让原本需要很专业才能做到的事,如今成为每一个普通人手到擒来的。Videa默认配置下可以完全免费使用,当免费的AI能力不能满足时,你可以通过购买资源包来升级,资源包是按量扣费,而且Fuu AI全站可用。无需邀请码。电脑上打开使用:

https://videa.work

在使用过程中,如果你遇到什么问题,或者发现有什么地方还做得不够好,你可以在下方留言,让我可以知道。也可以点击下面阅读原文,分享到电脑上打开后收藏,与我保持长期互动,不放过你的每一个想法。关注本公众号,获取更多使用技巧。

好了,就到这里,祝你愉快😀

18:50:37 已有2条回复
  1. 邮箱登录收不到验证码
    #1359 卡布 2025-06-05 10:24 回复
  2. 关注一下垃圾邮箱哦,邮箱服务是国外的,可能比较慢
    #1362 回复给#1359 否子戈 2025-06-13 19:25 回复
122025.5

兜兜转转,弃用edge,用回chrome

最早从chrome换到edge的原因,是因为chrome越来越吃内存,同时,账号同步功能受到限制,而edge使用了相同内核,微软的账号又没有受到限制。但随着时间的推移,已经持续用了几年edge了,发现它越来越重,不仅版本跟不上chrome,而且账号问题反而影响使用——当正常使用时,由于网络问题,账号没有连上,它竟然会弹出一个强制性的弹窗盖在原有窗口上,导致原有窗口关不掉,虽然这个弹窗可以直接关闭,但是过一会儿又会弹出来,真的是太恶心。包括它新加的AI功能,统统都用不上。对于我而言,浏览器的重要功能是要调试方便,而chrome就像初恋一样,又成了我的心头好。

12:38:55 已有0条回复