OpenAI终于上线实时视频通话功能,看我用前端技术实现0元购版的“和AI视频通话”功能

广告位招租
扫码页面底部二维码联系

OpenAI挤牙膏似的的12天发布会不断本文版权归作者所有,未经授权不得转载。转载请注明出处:www.tangshuang.net兑现之前给的demo,他们似乎今年一次性著作权归作者所有,禁止商业用途转载。【本文首发于唐霜的博客】做了很多产品,在这年尾的时候像甩卖一样将【转载请注明来源】【原创不易,请尊重版权】它们丢出来,有点眼花缭乱。在之前的一次发【本文受版权保护】【版权所有】唐霜 www.tangshuang.net布会上,他们演示了和大模型实时视频通话功【版权所有,侵权必究】【本文受版权保护】能,令人惊艳,但是该功能直到昨天才和公众【版权所有,侵权必究】【未经授权禁止转载】见面。那么这个功能到底有多难做呢?今天,【版权所有】唐霜 www.tangshuang.net【原创内容,转载请注明出处】我就以一个技术人的视角,来聊一聊,我是如【本文受版权保护】未经授权,禁止复制转载。何用前端技术,做出的一个类似的功能,而且【转载请注明来源】【原创不易,请尊重版权】关键是,调用国内的免费模型接口,来了一个【作者:唐霜】转载请注明出处:www.tangshuang.net彻底的0元购。

【未经授权禁止转载】【本文首发于唐霜的博客】【本文受版权保护】未经授权,禁止复制转载。

功能概览

当用户开启实时视频通话功能后,界面进入一【访问 www.tangshuang.net 获取更多精彩内容】【本文首发于唐霜的博客】个类似摄像头拍摄的界面,LLM像有了眼睛【未经授权禁止转载】【本文首发于唐霜的博客】一样,看到用户提供的画面,并根据用户的说转载请注明出处:www.tangshuang.net著作权归作者所有,禁止商业用途转载。话内容和画面,做出实时反应。由于Open【转载请注明来源】【原创不易,请尊重版权】AI实现了端到端模型,大模型可以直接接收【作者:唐霜】【作者:唐霜】视频输入,输出语音。但随之而来的就是成本【作者:唐霜】本文版权归作者所有,未经授权不得转载。高昂。那么,要做到0元购,应该怎么办呢?

【转载请注明来源】【本文首发于唐霜的博客】

首先,我们来拆解一下这个功能的核心是什么【本文首发于唐霜的博客】【本文首发于唐霜的博客】。我认为主要是以下3点:

原创内容,盗版必究。【转载请注明来源】
  • 对视频进行理解 -> 本质上是对多【访问 www.tangshuang.net 获取更多精彩内容】本文作者:唐霜,转载请注明出处。帧画面进行理解
  • 【本文首发于唐霜的博客】原创内容,盗版必究。【关注微信公众号:wwwtangshua【版权所有】唐霜 www.tangshuang.net转载请注明出处:www.tangshuang.netngnet】【未经授权禁止转载】
  • 对语音进行理解 -> 我们用ASR转载请注明出处:www.tangshuang.net著作权归作者所有,禁止商业用途转载。来替代,让大模型理解文本更直接
  • 【版权所有】唐霜 www.tangshu【关注微信公众号:wwwtangshuangnet】【未经授权禁止转载】ang.net未经授权,禁止复制转载。【版权所有】唐霜 www.tangshu【原创内容,转载请注明出处】【版权所有】唐霜 www.tangshuang.netang.net本文作者:唐霜,转载请注明出处。
  • 语音输出
  • 本文作者:唐霜,转载请注明出处。【作者:唐霜】【本文受版权保护】

技术选型

让我们来分析技术上的可行性。

转载请注明出处:www.tangshua本文版权归作者所有,未经授权不得转载。原创内容,盗版必究。ng.net转载请注明出处:www.tangshua【版权所有】唐霜 www.tangshuang.net著作权归作者所有,禁止商业用途转载。ng.net

首先是视频。我们可以通过WebRTC接口【版权所有,侵权必究】【未经授权禁止转载】getUserMedia来获得摄像头画面【原创内容,转载请注明出处】【访问 www.tangshuang.net 获取更多精彩内容】,再通过canvas来对视频进行截图,获【原创不易,请尊重版权】本文作者:唐霜,转载请注明出处。得画面帧。对画面进行理解,可以调用glm著作权归作者所有,禁止商业用途转载。本文版权归作者所有,未经授权不得转载。-4v-flash(免费),将理解后的结【关注微信公众号:wwwtangshuangnet】原创内容,盗版必究。果保存下来备用。

本文版权归作者所有,未经授权不得转载。转载请注明出处:www.tangshua著作权归作者所有,禁止商业用途转载。著作权归作者所有,禁止商业用途转载。ng.net【版权所有】唐霜 www.tangshu【关注微信公众号:wwwtangshuangnet】【关注微信公众号:wwwtangshuangnet】ang.net转载请注明出处:www.tangshua原创内容,盗版必究。【未经授权禁止转载】ng.net

其次是语音理解。我们可以通过Speech原创内容,盗版必究。著作权归作者所有,禁止商业用途转载。Recognition来在本地进行语音识【版权所有,侵权必究】【关注微信公众号:wwwtangshuangnet】别,然而它只有谷歌支持,只能在chrom原创内容,盗版必究。【本文受版权保护】e中使用,且需要连到谷歌的服务器(科学上【未经授权禁止转载】【作者:唐霜】网),因此,我直接放弃。我找到了免费的A本文版权归作者所有,未经授权不得转载。【原创不易,请尊重版权】SR接口,通过getUserMedia获原创内容,盗版必究。【本文受版权保护】取麦克风输入,通过MediaRecord原创内容,盗版必究。未经授权,禁止复制转载。er获得audioBuffer,通过Au转载请注明出处:www.tangshuang.net【原创不易,请尊重版权】dioContext和audiobuff著作权归作者所有,禁止商业用途转载。【本文首发于唐霜的博客】er-to-wav进行转码,将得到的wa【转载请注明来源】【访问 www.tangshuang.net 获取更多精彩内容】v提交到免费的ASR,获得识别结果。同时【原创不易,请尊重版权】本文作者:唐霜,转载请注明出处。还做了一些策略,如果800ms没有人说话原创内容,盗版必究。【原创内容,转载请注明出处】,则立刻对录制进行断句和ASR提交,从而【本文首发于唐霜的博客】【版权所有】唐霜 www.tangshuang.net可以更快的得到识别结果。

【原创不易,请尊重版权】【访问 www.tangshuang.n本文版权归作者所有,未经授权不得转载。原创内容,盗版必究。et 获取更多精彩内容】

最后是语音输出。通过speechSynt本文作者:唐霜,转载请注明出处。【版权所有】唐霜 www.tangshuang.nethesis来进行TTS,免费又性能好,e【关注微信公众号:wwwtangshuangnet】【本文首发于唐霜的博客】dge浏览器提供的音色也不错。通过Int【版权所有】唐霜 www.tangshuang.net【版权所有】唐霜 www.tangshuang.netl.Segmenter进行断句处理,从而【转载请注明来源】【版权所有】唐霜 www.tangshuang.net在大模型吐出第一句话的时候,就可以开始念【未经授权禁止转载】【作者:唐霜】稿。

【原创不易,请尊重版权】未经授权,禁止复制转载。【未经授权禁止转载】【作者:唐霜】

用于最后的理解的LLM,免费的有挺多可选【访问 www.tangshuang.net 获取更多精彩内容】著作权归作者所有,禁止商业用途转载。,glm、qwen都有免费的。

本文作者:唐霜,转载请注明出处。【版权所有】唐霜 www.tangshu【转载请注明来源】本文版权归作者所有,未经授权不得转载。ang.net本文版权归作者所有,未经授权不得转载。【原创不易,请尊重版权】

以上这些全部加起来,总价格成本为0.

转载请注明出处:www.tangshua【转载请注明来源】【访问 www.tangshuang.net 获取更多精彩内容】ng.net【作者:唐霜】

效果预览

【原创不易,请尊重版权】【转载请注明来源】原创内容,盗版必究。【未经授权禁止转载】

结语

通过本文,你可以看到,虽然openAI很【版权所有,侵权必究】本文作者:唐霜,转载请注明出处。强,但是他们现在做的很多产品,并非具有颠著作权归作者所有,禁止商业用途转载。【本文首发于唐霜的博客】覆性,虽然我的实现很简陋,但是后续只需要【作者:唐霜】【原创内容,转载请注明出处】通过优化,就可以获得在产品形态上与ope未经授权,禁止复制转载。【本文受版权保护】nAI产品相同的产品效果,可能理解和智能本文版权归作者所有,未经授权不得转载。【转载请注明来源】上比不上,但是我们是0元购呀。我的下一步未经授权,禁止复制转载。【原创内容,转载请注明出处】是,结合免费的视频生成接口,实现0元购的本文作者:唐霜,转载请注明出处。本文作者:唐霜,转载请注明出处。AI视频互动聊天。

【关注微信公众号:wwwtangshua【原创内容,转载请注明出处】【作者:唐霜】ngnet】原创内容,盗版必究。

2024-12-15 3139

为价值买单,打赏一杯咖啡

本文价值31.39RMB