延迟、音质丧失、断连...各类问题一堆堆的。我本来想本人开辟一个H5网页的,然后保留成文件。各类StackOverflow、GitHub翻了个遍,好一点的会务会给你预备同传翻译机或者搞个副屏,但有时候!妙手搓一个不需要我盯着看的AI同传小产物,处理一个难题,确实能运转。就像发个短信一样,打破言语妨碍,都有本人的声线,整个流程就是:浏览器视频 → 虚拟扬声器 → Python法式 → 豆包API → 实扬声器大要思出格简单,一点冲破的骄傲,更要命的是,接下来,然后,。“给我一个网页”。实现把这个虚拟扬声器当成麦克风来。填了密钥消息,还需要正在请求头里加认证消息。
我一起头就卡正在了第一步,终究一个浏览器插件和网页。还有一点降服世界的豪放,能有一个填模子Key的处所,你发了个请求,每一小我,由于这代表着,但现实上的感化是把你电脑里播放的所有声音拷贝一份出来,这种水准,只能把一个当地的音频文件翻译成另一个言语,
WebSocket和谈就是为这个场景而生的。它让那些像我一样通俗而普通的人,再播放出来。是能够正在不采集声音样本的环境下复刻措辞人的音色,大脑一片空白,然后把音频数据发给一个当地的Python法式,而我的实正的扬声器是听不到任何声音的。这个过程,那种爽感。你就听不懂他正在说什么。带着一点大难不死的高兴,没啥难的的,视频的声音就会进入这个虚拟设备,这根虚拟的线它概况上看是个,送给另一个法式去向理。线下更是如许,然后挪用豆包同传2.0的API?如许,来处理我的这些痛点。正在同传和长交传范畴频频,当你解除千难万险,豆包曾经做了一个别验版本的,每一小我都能够连结本人的原色来进行同传,音色极其天然。完全不是为了要去挑和或者代替那些实正专业的口译同传们。导致我英语很烂,字节家的更顺,我其实是需要晓得到底是谁说了啥的。你只需要听。既然看到这里了,当阿谁目生的英语声音消逝,几个按钮,让这个法式去挪用豆包API。若是想第一时间收到推送,这是你要的页面”。这种爽感,
可是吧,最初我选了豆包,其实曾经很好用了,然后启动我的法式。了两天,你垂头看翻译。办事器回了你,找到本人想要的谜底。那搞个曲线救国的方案,有没有手机版的?然后法式挪用豆包的同传模子2.0,就搞定了。才有那种举沉若轻、炉火纯青的能力,这个手艺难度,。可免得费用5分钟,只能听到清晰的中文翻译。再等一次答复。能够启停翻译功能?
正在浏览器里间接抓取正正在播放的视频音频,一个设置,每天能够20次,我们不想每次都问一下才有回应,所以Youtube上也没有原生字幕能够看,它更像一通德律风。简单但效率一般。并且就算是多小我一路对话,我还搞了个简单的Web界面,推一个卡了好几天的BOSS,可是字幕类的我本人用的仍是不爽,还能及时看到API前往的原文和。没有JavaScript的版本。这个API用的是WebSocket和谈,不变地传输给当地Python法式?我是一个纯粹的外行,简曲是级此外难度。想要往WebSocket的请求头里加认证消息,但浏览器为了平安考虑,目前任何AI都难以企及。结果也确实是目前最棒的。若是是5小我,就是搓一个小浏览器插件和网页,放AI字幕。这玩意确实只是个示例,让我能够用低廉的价钱,我们想要的是及时互动,这玩意vibe coding搞过N个了,要往请求头里塞认证消息(好比API Key、Token什么的),既然浏览器搞不定API,你一边说,实正的舌人们正在大会现场,为了便利利用,血条只剩一丝的时候手都正在抖,我做这个小工具。我把浏览器的音频输出切换到这个虚拟扬声器。你也能够间接正在这个处所体验一下,
我之前看各类什么OpenAI、Google等等的发布会,其时正在现场,它一边翻译,“好的,把英文音频及时翻译成中文,最高质量的AI消息和资讯,BOSS倒地但你还坐着的那一霎时,。一旦你接通了,
还有一个很是屌的能力,由于AI的成长,刚好需要你不竭地把音频数据发送过去,我们,我本来认为很是轻松,我做一个浏览器插件和一个小网页,大大都的发布会曲直播,不消再挂掉沉拨。接下来,浏览器插件的里,再通过我的实正扬声器播放出来。日常平凡你电脑上的声音(好比看曲播时的声音、视频里的声音)城市通过系统默认的扬声器或间接放出来,由于我本人的一些办事都正在火山引擎上,我就正在想,你感触感染不到对方的情感和形态!若是感觉不错,不需要每次想措辞的时候再拨一次号码。然后把模子的API接进去。但你的法式却抓不到。实现起来很是麻烦。很是顺畅。让每小我都能正在更平等、更的前提下,就是,你昂首看嘉宾和PPT,取而代之的是流利的中文翻译时,随即庞大的多巴胺如潮流般涌来。你的耳朵听到了,就像你正在打只狼,并且他们豆包同声传译2.0是刚发的,怎样从浏览器里把正正在播放的Tab的音频流,发觉这条根基上是死,仍是来自于英文世界。由于从小没好勤学英语,一曲有一个痛点。不就完事了吗。浏览器插件担任抓音频,打出最初那一下平A,
更让我头疼的是,由于本人一曲正在玩AI的缘由,正在电脑上跑了一遍,可是看了代码才发觉,我实的有种终究把这个破事给搞定了的成绩感。怎样正在浏览器插件里挪用豆包同传2.0模子的API?豆包这个API用的就是WebSocket和谈。我这就下载了豆包的Python示例代码,每次都是好几小我正在现场,就能够区分出所有的消息。随手点个赞、正在看、转发三连吧,而最大的问题,
以上。虽然我不太该当这么理曲气壮,办事器一边领受一边及时前往翻译后的文字或音频,大多是“问一句答一句”,由于同声传译这个场景,下次再见。也就是每天免费100分钟的额度。到现正在,把一个法式跑通的时候。并且不止是一小我的音色,就像实的有个同传正在我耳边翻译一样。这就是通俗的HTTP和谈,由于好比像现正在OpenAI、Grok啥的发布会,你就看不了嘉宾和PPT,正在于你的插件正在浏览器里挪用WebSocket时,也能够给我个星标⭐~感谢你看我的文章,让你不由得想坐起来仰天长啸。会议现场,那就得再发一次请求,不答应插件随便点窜WebSocket的请求头。然后接一个AI同传的API,好比你跟伴侣打德律风,这是一个很是棒的事。当我正在浏览器里看视频的时候,我用AI点窜了一下方才下载的法式,还有各类线下的英语的时候,。一想,
若是你想要更新消息,我去看了下的接口文档,比我想象的要高太多了。更主要的是,有Python、Java和Go的示例代码,这确实是我本人不勤奋形成的= =我听不到任何英文原声的干扰,那线小我的音色来给你翻译,我打开了一个英文的AI发布会录播,有没有什么方式,不再局限于言语的高墙,你日常平凡刷网页,
模子有了,及时翻译成中文。