OpenAI终于上线实时视频通话功能,看我用前端技术实现0元购版的“和AI视频通话”功能

广告位招租
扫码页面底部二维码联系

OpenAI挤牙膏似的的12天发布会不断【版权所有】唐霜 www.tangshuang.net【未经授权禁止转载】兑现之前给的demo,他们似乎今年一次性转载请注明出处:www.tangshuang.net未经授权,禁止复制转载。做了很多产品,在这年尾的时候像甩卖一样将本文版权归作者所有,未经授权不得转载。未经授权,禁止复制转载。它们丢出来,有点眼花缭乱。在之前的一次发转载请注明出处:www.tangshuang.net未经授权,禁止复制转载。布会上,他们演示了和大模型实时视频通话功【访问 www.tangshuang.net 获取更多精彩内容】【未经授权禁止转载】能,令人惊艳,但是该功能直到昨天才和公众本文作者:唐霜,转载请注明出处。【本文受版权保护】见面。那么这个功能到底有多难做呢?今天,【原创不易,请尊重版权】未经授权,禁止复制转载。我就以一个技术人的视角,来聊一聊,我是如【作者:唐霜】【版权所有】唐霜 www.tangshuang.net何用前端技术,做出的一个类似的功能,而且【作者:唐霜】【访问 www.tangshuang.net 获取更多精彩内容】关键是,调用国内的免费模型接口,来了一个【原创不易,请尊重版权】本文作者:唐霜,转载请注明出处。彻底的0元购。

原创内容,盗版必究。未经授权,禁止复制转载。【访问 www.tangshuang.n【访问 www.tangshuang.net 获取更多精彩内容】【原创不易,请尊重版权】et 获取更多精彩内容】著作权归作者所有,禁止商业用途转载。

功能概览

当用户开启实时视频通话功能后,界面进入一本文作者:唐霜,转载请注明出处。本文版权归作者所有,未经授权不得转载。个类似摄像头拍摄的界面,LLM像有了眼睛著作权归作者所有,禁止商业用途转载。著作权归作者所有,禁止商业用途转载。一样,看到用户提供的画面,并根据用户的说【未经授权禁止转载】【访问 www.tangshuang.net 获取更多精彩内容】话内容和画面,做出实时反应。由于Open未经授权,禁止复制转载。【原创内容,转载请注明出处】AI实现了端到端模型,大模型可以直接接收本文版权归作者所有,未经授权不得转载。【原创内容,转载请注明出处】视频输入,输出语音。但随之而来的就是成本本文版权归作者所有,未经授权不得转载。【未经授权禁止转载】高昂。那么,要做到0元购,应该怎么办呢?

本文版权归作者所有,未经授权不得转载。著作权归作者所有,禁止商业用途转载。【原创不易,请尊重版权】

首先,我们来拆解一下这个功能的核心是什么【未经授权禁止转载】原创内容,盗版必究。。我认为主要是以下3点:

【本文首发于唐霜的博客】【版权所有】唐霜 www.tangshu【本文受版权保护】【未经授权禁止转载】ang.net原创内容,盗版必究。
  • 对视频进行理解 -> 本质上是对多【转载请注明来源】【作者:唐霜】帧画面进行理解
  • 【未经授权禁止转载】著作权归作者所有,禁止商业用途转载。【原创不易,请尊重版权】本文作者:唐霜,转载请注明出处。
  • 对语音进行理解 -> 我们用ASR【版权所有】唐霜 www.tangshuang.net【本文受版权保护】来替代,让大模型理解文本更直接
  • 【转载请注明来源】【作者:唐霜】
  • 语音输出
  • 原创内容,盗版必究。【关注微信公众号:wwwtangshua【版权所有,侵权必究】【关注微信公众号:wwwtangshuangnet】ngnet】转载请注明出处:www.tangshua转载请注明出处:www.tangshuang.net【作者:唐霜】ng.net

技术选型

让我们来分析技术上的可行性。

【本文首发于唐霜的博客】【关注微信公众号:wwwtangshua未经授权,禁止复制转载。【作者:唐霜】ngnet】【作者:唐霜】本文版权归作者所有,未经授权不得转载。

首先是视频。我们可以通过WebRTC接口原创内容,盗版必究。转载请注明出处:www.tangshuang.netgetUserMedia来获得摄像头画面【本文首发于唐霜的博客】【未经授权禁止转载】,再通过canvas来对视频进行截图,获【版权所有,侵权必究】【本文首发于唐霜的博客】得画面帧。对画面进行理解,可以调用glm【版权所有】唐霜 www.tangshuang.net本文作者:唐霜,转载请注明出处。-4v-flash(免费),将理解后的结【本文首发于唐霜的博客】本文作者:唐霜,转载请注明出处。果保存下来备用。

【访问 www.tangshuang.n【原创不易,请尊重版权】【作者:唐霜】et 获取更多精彩内容】原创内容,盗版必究。

其次是语音理解。我们可以通过Speech本文作者:唐霜,转载请注明出处。【转载请注明来源】Recognition来在本地进行语音识【访问 www.tangshuang.net 获取更多精彩内容】【版权所有】唐霜 www.tangshuang.net别,然而它只有谷歌支持,只能在chrom【访问 www.tangshuang.net 获取更多精彩内容】转载请注明出处:www.tangshuang.nete中使用,且需要连到谷歌的服务器(科学上未经授权,禁止复制转载。【转载请注明来源】网),因此,我直接放弃。我找到了免费的A原创内容,盗版必究。【本文受版权保护】SR接口,通过getUserMedia获著作权归作者所有,禁止商业用途转载。未经授权,禁止复制转载。取麦克风输入,通过MediaRecord【转载请注明来源】【未经授权禁止转载】er获得audioBuffer,通过Au【未经授权禁止转载】【作者:唐霜】dioContext和audiobuff本文版权归作者所有,未经授权不得转载。【关注微信公众号:wwwtangshuangnet】er-to-wav进行转码,将得到的wa著作权归作者所有,禁止商业用途转载。本文版权归作者所有,未经授权不得转载。v提交到免费的ASR,获得识别结果。同时转载请注明出处:www.tangshuang.net【版权所有,侵权必究】还做了一些策略,如果800ms没有人说话原创内容,盗版必究。本文版权归作者所有,未经授权不得转载。,则立刻对录制进行断句和ASR提交,从而【作者:唐霜】【未经授权禁止转载】可以更快的得到识别结果。

原创内容,盗版必究。本文作者:唐霜,转载请注明出处。著作权归作者所有,禁止商业用途转载。

最后是语音输出。通过speechSynt本文作者:唐霜,转载请注明出处。【未经授权禁止转载】hesis来进行TTS,免费又性能好,e原创内容,盗版必究。【版权所有】唐霜 www.tangshuang.netdge浏览器提供的音色也不错。通过Int转载请注明出处:www.tangshuang.net【访问 www.tangshuang.net 获取更多精彩内容】l.Segmenter进行断句处理,从而本文版权归作者所有,未经授权不得转载。本文版权归作者所有,未经授权不得转载。在大模型吐出第一句话的时候,就可以开始念著作权归作者所有,禁止商业用途转载。【本文受版权保护】稿。

著作权归作者所有,禁止商业用途转载。未经授权,禁止复制转载。原创内容,盗版必究。

用于最后的理解的LLM,免费的有挺多可选【本文受版权保护】【原创内容,转载请注明出处】,glm、qwen都有免费的。

本文版权归作者所有,未经授权不得转载。【版权所有,侵权必究】

以上这些全部加起来,总价格成本为0.

本文版权归作者所有,未经授权不得转载。未经授权,禁止复制转载。

效果预览

【作者:唐霜】转载请注明出处:www.tangshua原创内容,盗版必究。【未经授权禁止转载】ng.net【转载请注明来源】本文版权归作者所有,未经授权不得转载。

结语

通过本文,你可以看到,虽然openAI很未经授权,禁止复制转载。转载请注明出处:www.tangshuang.net强,但是他们现在做的很多产品,并非具有颠本文作者:唐霜,转载请注明出处。原创内容,盗版必究。覆性,虽然我的实现很简陋,但是后续只需要著作权归作者所有,禁止商业用途转载。【作者:唐霜】通过优化,就可以获得在产品形态上与ope原创内容,盗版必究。【原创内容,转载请注明出处】nAI产品相同的产品效果,可能理解和智能【转载请注明来源】【原创内容,转载请注明出处】上比不上,但是我们是0元购呀。我的下一步【访问 www.tangshuang.net 获取更多精彩内容】未经授权,禁止复制转载。是,结合免费的视频生成接口,实现0元购的【原创内容,转载请注明出处】【关注微信公众号:wwwtangshuangnet】AI视频互动聊天。

本文版权归作者所有,未经授权不得转载。【版权所有】唐霜 www.tangshu未经授权,禁止复制转载。【版权所有】唐霜 www.tangshuang.netang.net本文作者:唐霜,转载请注明出处。【未经授权禁止转载】

2024-12-15 3137

为价值买单,打赏一杯咖啡

本文价值31.37RMB