精华内容
下载资源
问答
  • tts语音地址
    千次阅读
    2020-06-07 18:46:52
    https://tts.baidu.com/text2audio?cuid=baike&lan=ZH&ctp=1&pdt=301&vol=9&rate=32&per=6&tex=试试这
    

    可以通过改变per的参数来改变音色
    把改变lan的值修改成EN可以设置成英文

    更多相关内容
  • TTS引擎语音朗读.rar

    2020-04-05 15:13:55
    TTS引擎语音朗读.rar TTS引擎语音朗读.rar TTS引擎语音朗读.rar TTS引擎语音朗读.rar TTS引擎语音朗读.rar TTS引擎语音朗读.rar
  • 百度朗读引擎源码
  • 完整版软件朗读源码.rar
  • 易语言TTS引擎语音朗读源码系统结构:回调函数,列举语音库,设置语音库,设置语速,设置声音大小,文本到语音, ======窗口程序集1 || ||------__启动窗口_创建完毕 || ||------回调函数 || || =====
  • 简单的语音朗读代码

    2015-01-09 14:46:29
    一个很简单的语音朗读代码,输入要朗读的文本,点击按钮就可以进行语音朗读
  • 语音朗读源码2.0

    2014-12-02 21:56:07
    语音朗读2.0 in VB,新增语言选项! 源代码! VB语音朗读5.0(最新版):https://download.csdn.net/download/xhyeax/8544687
  • 科大讯飞离线TTS语音朗读引擎 windws sdk ,c代码 封装成dll使用C#调用 由于讯飞的离线sdk与appid 是捆绑的,所以需要在讯飞开发平台生成自己的应用和appid 并下载 windows 离线语音合成 sdk ,能够运行 demo 里的 ...
  • 易语言源码易语言TTS引擎语音朗读源码.rar
  • TTS(Text-To-Speech)是指文本语音的简称,即通过TTS引擎把文本转化为语音输出。TTS语音引擎有微软TTS语音引擎等。微软TTS语音引擎提供了Windows Speech SDK开发包供编程者使用。Windows Speech SDK包含语音合成...
  • 中文语音朗读网站

    千次阅读 2019-06-05 12:51:17
    预览地址:https://yubin.applinzi.com 预览图片: 详细代码: <!DOCTYPE html> <html> <head> <title>myweb</title> <style> html{ height: 100%; ...

    预览地址:https://yubin.applinzi.com
    预览图片:
    在这里插入图片描述
    详细代码:

    <!DOCTYPE html>
    <html>
    <head>
        <title>myweb</title>
        <style>
            html{
                height: 100%;
               	background:url(https://cdn.nlark.com/yuque/0/2019/jpeg/124897/1558635287060-assets/web-upload/074f3bf7-9354-464a-985a-282167e3d212.jpeg);
    			background-size:100% 100%;
    			background-repeat:no-repeat;
            }
    
            div{
                width: 300px;         
                margin: 100px auto 0;
            }
    
            .input_box{
                width: 100%;
                height: 100px;
                outline: none; /*去掉轮廓线*/
                border: 10px solid #000;
                box-sizing: border-box;/*怪异盒模型*/
                resize: none;/*禁止拖拽*/
                border-radius: 20px;/*圆角*/
                padding: 20px;
                background-color: rgba(255,255,255,5);
                font-size: 20px;
            }
    
            .speech{
                height: 55px;
                width: 100%;
                font-size: 18px;
                outline: none;
                border: none;
                background-color:#000;
                color: #fff; 
                cursor: pointer;/*鼠标样式,小手*/
                border-radius: 20px;
            }
            .speech:hover{/*hover伪类选择器 当鼠标滑过speech改变背景颜色*/
                background-color: #ea4c89
            }
    
        </style>
    </head>
    <body >
    
        <div>
            <textarea class="input_box" placeholder="请输入文字......"></textarea>
            <input class="speech" type="submit" value="立刻朗读">
        </div>
    
        <script>/*JavaScript代码*/
            function speeching(inputBox,speechBtn) {
                var inputBox = document.querySelector(inputBox),
                    speechBtn = document.querySelector(speechBtn);
    
                var inputText = '';
    
                speechBtn.onclick = function(){
                    var message = null;/*默认文本框为空*/
                    var text = inputBox.value;/*接收按钮得到的值*/
                    message = new SpeechSynthesisUtterance(text);/*传给message*/
                    window.speechSynthesis.speak(message);/*利用电脑本身应用读取输入内容*/
                }
            }
        </script>
    
        <script>
            speeching('.input_box','.speech');
        </script>
    
    </body>
    </html>
    
    
    展开全文
  • 主要介绍了JS实现获取当前URL和来源URL的方法,涉及javascript针对页面document属性操作的相关技巧,需要的朋友可以参考下
  • 适用于浏览器的文本语音语音阅读器扩展! | | | github统计信息: chrome网上商店的统计信息: firefox插件... “朗读”针对的是那些喜欢听内容而不是阅读的用户,阅读障碍者或其他学习障碍者,学习阅读的儿童,或者只
  • Python喜马拉雅有声小说音频文件爬虫

    千次阅读 热门讨论 2021-03-18 08:21:38
    今天爬取的是喜马拉雅有声小说。 ... 分析操作开始: ...我们尝试访问一下该接口的url,将url复制到浏览器打开。 发起访问后,跳转出了一个保存文件到本地的界面。 我们选择保存,发现多了一个类型

    今天爬取的是喜马拉雅有声小说。


    在这里插入图片描述

    目标网址:https://www.ximalaya.com/youshengshu/


    分析操作开始:

    首先在喜马拉雅有声小说页面,播放任意音频。

    当播放音频时,打开抓包工具(加载网页后打开抓包工具,发现没有抓到数据包,刷新网页就行),这边选择媒体Media,一般的视频,音频文件都会在这里被抓取到。
    在这里插入图片描述
    下图就是抓到的音频文件。在这里插入图片描述
    我们尝试访问一下该接口的url,将url复制到浏览器打开。在这里插入图片描述
    在这里插入图片描述
    发起访问后,跳转出了一个保存文件到本地的界面。
    在这里插入图片描述
    我们选择保存,发现多了一个类型为M4A的文件。
    在这里插入图片描述
    尝试播放,发现的确是之前在喜马拉雅界面中播放的有声小说音频。在这里插入图片描述
    通过上述操作,我们明白访问该url可直接得到相应的音频文件。

    现在开始分析这个url

    “https://aod.cos.tx.xmcdn.com/group58/M09/4B/2B/wKgLc1zJeDKgmWlwADxJRm7KRfE151.m4a”

    一看就可以看到 这个url上全是各种加密在这里插入图片描述
    如果我们直接去做解密的话,这是不合适的,因为同样我们也不知道它是否真的是加密了,有可能他只是在26个英文字母和0到9个阿拉伯数字随机组成呢。

    咱们不确定它是哪种加密方式,那么怎么办呢?

    我们先复制他

    然后在所有抓到的包中 去寻找

    在这里插入图片描述

    搜索后我们发现 出现了一个audio音频接口
    在这里插入图片描述

    我们双击后发现控制台返回的一大串数据里面数据里面有一个叫src的,就有我们刚刚看到的音频数据。

    也就是说 音频是这样生成的 并不是一个加密在这里插入图片描述

    我们找到它的url地址以后 去访问

    在这里插入图片描述
    访问后发现他是类似于一个字典一样的储存,并且包含着刚刚的src数据,就是有声小说音频播放的地址。
    在这里插入图片描述
    整理一下思路,也就是我们可以请求这个接口然后得到一大串数据,我们在得到的一大串数据中 再提取src链接,也就是音频地址。在这里插入图片描述
    准备开始怼代码了,我们先创建一个py文件 和 一个存放音频数据的文件夹。
    在这里插入图片描述
    常规的基础爬虫请求,请求方式为get请求。
    在这里插入图片描述
    请求结果如下,控制台打印的数据为两个字典嵌套。
    在这里插入图片描述
    通过简单的处理,再次打印数据。在这里插入图片描述
    在这里插入图片描述
    成功打印出音频文件的地址!!

    这个时候我们就已经可以存储文件了,因为地址已经拿到了,但是存储文件 文件名是必不可少的,咱们回忆之前下载的音频文件。
    在这里插入图片描述
    简单思索一下 我们其实可以直接将src这个网址的末尾,作为音频文件的文件名。
    在这里插入图片描述
    通过基础的字符串切割,得到音频文件名字。
    在这里插入图片描述
    在这里插入图片描述
    再次进行常规爬虫操作,对srd的地址发起请求。
    在这里插入图片描述
    得到16进制的,字节数据。
    在这里插入图片描述
    最后只需要进行文件存储,就可以将音频文件保存到本地了。
    在这里插入图片描述
    这个时候一个音频文件的操作已经完成。

    但是!!!爬虫的优势是什么????是大批量的下载。

    想要大批量的下载,就必须使得url变成动态url。

    所以我们再次回到开头,选取另一个音频专辑的url对比参数。看看能不能发现规律。

    重复最开始的操作播放音频,通过抓包工具抓到音频文件的接口,复制id进行搜索。
    在这里插入图片描述

    拿到url,进行比对。
    在这里插入图片描述

    比对发现 只是id不一样。那我们可以进行url拼接使得url可以动态变化。

    在这里插入图片描述
    因为我们知道了更换id就可以使得下载音频文件的url变化,下载不同的音频文件,只需要更换url的id,所以我们想办法在专栏下抓取音频文件的id。

    静态数据永远比动态数据要好拿一点,我们先看看静态页面上有没有我们想要的数据。
    在这里插入图片描述
    果然不出我们所料,id就藏在这些静态数据当中。

    进行简单爬虫操作,获得页面源码。
    在这里插入图片描述

    上图的url错误了,应该是某个有声小说专辑的url,而不是整个有声小说的url。正确url应该为“https://www.ximalaya.com/youshengshu/40942749/”)

    为了保证数据的准确性,我们通过浏览器,截取一段页面源码,然后在pycharm打印台搜索,测试是否拿到了真实的页面源码。
    在这里插入图片描述

    在获取到的数据中搜索,成功搜索到了匹配的内容,证明我们的确获得到了 页面的真实源码。
    在这里插入图片描述
    抓取id,用它的类选择器。
    在这里插入图片描述

    完美!成功打印出之前所需要的id。
    在这里插入图片描述
    这时仔细的同学应该已经发现,每个章节的音频名字就在id的旁边。
    我们顺手再降名字也一起抓取。
    在这里插入图片描述

    在这里插入图片描述

    参数都拿到了,我们将之前保存音频的代码封装成一个函数。在这里插入图片描述
    然后将刚刚拿到的,name和id传过去。为了保证准确性中途可以多次打印来测试。
    在这里插入图片描述
    这里整个喜马拉雅爬虫算是完工了,输入这里直接input的专题的url就好了,但是小编发现,输入url后必须敲两个空格再回车,不然会直接从浏览器访问网址了。
    在这里插入图片描述
    因为多输入了两个空格,我们只需要进行简单的字符串操作,再将url传入之前函数里面,我们的爬虫就算是完成了!!!!!!
    在这里插入图片描述

    在这里插入图片描述

    下面附上源码:

    # -*- endoding: utf-8 -*-
    # @ModuleName:喜马拉雅
    # @Function(功能):
    # @Author : 苏穆冰白月晨
    # @Time : 2021/3/17 9:52\
    
    """喜马拉雅音频爬虫"""
    import requests
    from pyquery import PyQuery as pq  #局部搜索
    
    
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36'
    }
    
    
    def request_mp3(id, name):
        """保存音频文件"""
        url = "https://www.ximalaya.com/revision/play/v1/audio?id={}&ptype=1".format(id)
        print(url)
    
        response = requests.get(url,headers=headers).json()
        data = response['data']['src']
    
    
        mp3 = requests.get(data,headers=headers)
        f = open('./音频文件/' +name, 'ab' ) #文件路径  文件读写方式 a文件追加(不存在新建) b进制文件
        f.write(mp3.content)
        f.close()
    
    
    
    def main(urls):
        response = requests.get(urls,headers=headers).text
        doc = pq(response)
    
        """<a title="神棍下山记 001 如此师徒(免费收听,福利多多,订阅不迷路)" href="/youshengshu/40942749/328847758"><span class="title lF_">神棍下山记 001 如此师徒(免费收听,福利多多,订阅不迷路)</span></a>"""
    
        text1 = doc(".text.lF_ a").items()
        for i in  text1:
            id1 = i.attr("href").split('/')[3]
            name = i.attr("title").split('(')[0]
            print(id1)
            print(name)
            request_mp3(id1, name)
    
    
    if __name__ == '__main__':
        urls1 = input(r"请输入专辑的url: ").split(" ")
        urls = urls1[0]
        main(urls)
    

    如果对您有帮助可以的话关注一下公众号:Python网络小蜘蛛

    展开全文
  • 开始代码部分 我们首先获取想听的书的网页信息(响应+书名) 然后获取小说每一章的url地址 获取每一章的音频地址并爬取保存 主进程 完整代码 注意: 下载脚本 (本脚本仅限爬取该网站免费内容) 网站选取和网页元素...

    两个星期的考试周副本结束,今天放假。寝室就我一个人,闲来没事,写篇博客混混时间。好像现在csdn上爬虫主题比较火,我也来个听书网站的下载脚本吧。
    (前两次投竟然审核没通过)

    下载脚本

    (本脚本仅限爬取该网站免费内容)

    网站选取和网页元素踩点

    我挺喜欢听小说的,某雅,某人听书都充过会员,但爬他们网站的资源是可能有被禁的风险,思来想去还是爬个没有版权保护的听书网站,找了一会儿,发现有个叫(lian)(ting)网的还不错。网站底下有免责声明,资源来自网络比较丰富。
    并且有电脑端和手机端两个网站,非常nice

    可以看一下网站的爬虫声明:
    在这里插入图片描述

    只要不爬取上图所写的目录,应该就不用担心。

    首先观察网页整体布局

    在这里插入图片描述

    点击项对应的标签和属性

    在这里插入图片描述

    每本书对应链接应该是“https://m.ting55.com/”+href

    进入选中的书籍页面,我们可以看到对应的每一集目录

    在这里插入图片描述

    每一集目录应该是“https://m.ting55.com/”+href

    进入每一集后查看音频元素,大多为m4a和mp3格式,我们最终要找到每一集对应的音频文件地址

    在类似的爬取音频视频网站时,最重要的就是找到音频视频对应的地址

    选取合适的库工具

    这里我使用的是Microsoft edge(浏览器)+selenium+requests+lxml(代码里面有一些库是优化使用的)

    在这里插入图片描述

    这个网站比较贼,如果单纯用requests库时在返回每一集的响应时会将音频资源标签去掉,所以我们需要使用selenium来将标签完整的爬取。

    selenium配置资料:可以在csdn中搜索Microsoft edge+selenium,或者选择chrome+selenium来进行配置。

    其他的库就正常的pip下载

    开始代码部分

    我们首先获取想听的书的网页信息(响应+书名)

    def get_url_response(url):#传入的参数url即你想听的书的url地址
        header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'}
        Proxy={'http':'121.230.133.214:9999'}
        a=requests.get(url,proxies=Proxy,headers=header)
        return a
    
    def get_bookname(a):
        html=etree.HTML(a.text)
        name=html.xpath('//*[@id="wrapper"]/div[3]/div/div/div[2]/div/div[2]/h1/text()')
        return name 
    

    然后获取小说每一章的url地址

    def get_page_url(reponse,start_page,stop_page):
        html=etree.HTML(reponse.text)
        page_url=[]
        for i in range(start_page,stop_page+1):
            page_url.append('https://m.ting55.com/'+html.xpath(f'/html/body/div[1]/div[3]/div/div/div[4]/div/ul/li[{i}]/a/@href')[0])
        return page_url #获取的每个章节的url地址
    
    

    获取每一章的音频地址并爬取保存

    @retry(stop_max_attempt_number=6) #假如该函数断开,重复尝试的次数
    def get_audio_url(driver,page_url,name):
    #     #声明代理
        global num
        num=num+1
        if (num==4):
            return
        print(page_url,"---第{}次".format(num))
        driver.get(page_url)
        sleep(120)
        page_all=driver.find_element_by_xpath('/html/body/div[1]/section/h1').text
        
        audio_url=driver.find_element_by_xpath('//*[@id="player"]').get_attribute("src")
        
        print("开始爬取{}".format(name))
        save(name,page_all,audio_url)
    
        num=0
        
    def save(name,page,audio_url):
        path = f'D:/有声小说/{name}//'
        if not os.path.exists(path):
            os.makedirs(path)
        audio_content = requests.get(audio_url).content
        #audio_content=request.get(audio_url).content
        with open(path +page+ '.mp3', mode='wb') as f:
            f.write(audio_content)
            print('正在保存:', page)
            print("等待一会开始爬取下一章")
            # sleep(100)
    
    
    

    主进程

    if __name__ == '__main__':
        url='https://www.ting55.com/book/13864'
        # start=int(input("起始集:"))
        start=10
        # stop=int(input("中止集:"))
        stop=100
        proxy = Proxy({ 'proxyType': ProxyType.MANUAL, 
    # #代理 ip 和端口
                   'httpProxy': '223.215.118.145:9999'}) 
    # #配置对象 DesiredCapabilities 
        dc=DesiredCapabilities.EDGE.copy()
    # #把代理 ip 加入配置对象
        proxy.add_to_capabilities(dc) 
        option=EdgeOptions()
        option.add_argument('headless')
        option.add_argument(
        'user-agent=Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36')
    
        option.add_experimental_option('excludeSwitches', ['enable-automation'])
        # driver=webdriver.Edge("D:/edgedriver_win64/9.1/msedgedriver.exe",capabilities=dc,options=option)
        driver = Edge("D:/edgedriver_win64/9.1/msedgedriver.exe",options = option)
        re=get_url_response(url)
        try:
            get_medio(driver,get_page_url(re,start,stop),get_bookname(re))
        except Exception as e:
            print(e,"5小时后还在被封")
            driver.close()
        print("第{}到第{}已经爬取完成".format(start,stop))
        driver.close()
    

    完整代码

    import requests
    import os
    from lxml import etree
    # from selenium import webdriver
    from time import sleep
    from selenium.webdriver.common.proxy import Proxy 
    from selenium.webdriver.common.proxy import ProxyType
    from selenium.webdriver.common.desired_capabilities import DesiredCapabilities
    from retrying import retry
    from msedge.selenium_tools import EdgeOptions
    from msedge.selenium_tools import Edge
    
    num = 0
    
    def get_url_response(url):
        header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'}
        Proxy={'http':'121.230.133.214:9999'}
        a=requests.get(url,proxies=Proxy,headers=header)
        return a
    
    
    def get_page_url(reponse,start_page,stop_page):
        html=etree.HTML(reponse.text)
        page_url=[]
        for i in range(start_page,stop_page+1):
            page_url.append('https://m.ting55.com/'+html.xpath(f'/html/body/div[1]/div[3]/div/div/div[4]/div/ul/li[{i}]/a/@href')[0])
        return page_url
    
    def get_bookname(a):
        html=etree.HTML(a.text)
        name=html.xpath('//*[@id="wrapper"]/div[3]/div/div/div[2]/div/div[2]/h1/text()')
        return name 
    
    @retry(stop_max_attempt_number=6)#假如该函数断开,重复尝试的次数
    def get_audio_url(driver,page_url,name):
    #     #声明代理
        global num
        num=num+1
        if (num==4):
            return
        print(page_url,"---第{}次".format(num))
        driver.get(page_url)
        sleep(120)#每一集之间的爬取设置暂停2分钟
        page_all=driver.find_element_by_xpath('/html/body/div[1]/section/h1').text
        
        audio_url=driver.find_element_by_xpath('//*[@id="player"]').get_attribute("src")
        
        print("开始爬取{}".format(name))
        save(name,page_all,audio_url)
    
        num=0
    
    def get_medio(driver,page,name):
        global num
        try_num=0
        stop=0
        
        for i in page:
            get_audio_url(driver,i,name)
            stop+=1
            if(stop%4 == 0 and stop!=0):
                print("为防止爬取过快被限制,暂停10分钟")
                sleep(600)
                stop=0
    #这个网站有访问限制,如果一定时间内访问过于频繁就会被封一个小时,所以我设置了上面的for循环每爬取四集就停十分钟            
            while (num>=4 and try_num<=2):
                print("开始等待一小时")#
                sleep(3600)
                print("等待时间结束,开始爬取")
                try_num=try_num+1  
                print("get_medio中{}的第{}次尝试".format(i,try_num))    
                num=0
                get_audio_url(driver,i,name)
    #假如被封禁一个小时,这个while语句会自动等待一小时后再试着爬取,一直被禁则重复五次后异常退出                  
            try_num=0
            
    
    def save(name,page,audio_url):
        path = f'D:/有声小说/{name}//'
        if not os.path.exists(path):
            os.makedirs(path)
        audio_content = get_url_response(audio_url).content
        #audio_content=request.get(audio_url).content
        with open(path +page+ '.m4a', mode='wb') as f:
            f.write(audio_content)
            print('正在保存:', page)
            print("等待一会开始爬取下一章")
            # sleep(100)
    
    if __name__ == '__main__':
        url=input("恋听网中书籍url地址:")
        start=int(input("起始集:"))
        stop=int(input("中止集:"))
        proxy = Proxy({ 'proxyType': ProxyType.MANUAL, 
    # #代理 ip 和端口
                   'httpProxy': '223.215.118.145:9999'}) 
    # #配置对象 DesiredCapabilities 
        dc=DesiredCapabilities.EDGE.copy()
    # #把代理 ip 加入配置对象
        proxy.add_to_capabilities(dc) 
        option=EdgeOptions()
        option.add_argument('headless')
        option.add_argument(
        'user-agent=Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36')
    
        option.add_experimental_option('excludeSwitches', ['enable-automation'])
        # driver=webdriver.Edge("D:/edgedriver_win64/9.1/msedgedriver.exe",capabilities=dc,options=option)
        driver = Edge("D:/edgedriver_win64/9.1/msedgedriver.exe",options = option)
        re=get_url_response(url)
        try:
            get_medio(driver,get_page_url(re,start,stop),get_bookname(re))
        except Exception as e:
            print(e,"5小时后还在被封")
            driver.close()
        print("第{}到第{}已经爬取完成".format(start,stop))
        driver.close()
    

    注意:

    这个脚本写的时间比较短,可能会有一些东西无法兼顾,比如防止被封禁的方法(我选择以降低速度来防止访问频繁被禁),其实可以做个代理ip池切换ip爬取。如果只是自己听小说我觉得应该够用了,建议晚上运行脚本,白天听。

    觉得有帮助的朋友,能给个赞吗?求求了

    本人原创,若要转载请私信通知即可

    展开全文
  • 自己做的一个小测试程序(读memo里的内容),测试文本朗读功能,配上TTS语音库,效果还不错,大家共同学习吧!(注意看里边的说明文件)
  • 使用URL在线语音合成

    千次阅读 2015-12-29 11:57:17
    最近一直在做手机的项目,用到了语音合成与识别的功能,就找了几个网址做了分析,这里仅仅实现了内容的...首先看一下谷歌的语音合成地址:http://translate.google.cn/translate_tts?ie=UTF-8&q=这里为语音内容,最
  • url='换成需要朗读的网页页面地址' r = requests.get(url) r.encoding='GBK' htmlData = r.text html = etree.HTML(htmlData) title=html.xpath('//div[@class="wrapper_main"]//h1//span[@id="htmltimu"]//...
  • http://tts.baidu.com/text2audio?lan=zh&ie=UTF-8&text=百度翻译女声语音播报apihttp://api.microsofttranslator.com/v2/http.svc/speak?appId=TJnIprF8gfKIzzWSJUYbWZBxOdX4nQDJK4o5BoiI42GE*&language=zh-TW&...
  • MSTTS语音朗读引擎

    2009-11-12 13:09:11
    MSTTS语音朗读引擎,让支持MSTTS技术的程序发声
  • URL 源码分析

    千次阅读 2020-09-11 16:15:27
    资源可以是简单的文件或目录,或者它可以是对更复杂对象的引用,例如对数据库或搜索引擎的查询。这个类的作用就是URL的定位的作用,定位了每个资源符号引用的位置。整个URL大体上就是对URL内容进行规范,对URL进行...
  • def get_baidu_voice_url(text): api_base = 'https://tts.baidu.com/text2audio?tex=' token = '&cuid=baike&lan=ZH&ctp=1&pdt=301&vol=9&rate=32&per=0' url_encoded_text = ...
  • 利用微软提供的SAPI库实现中文朗读。这里是源代码
  • 不废话,直接上代码,例子是读取日语文本进行朗读。LANGUAGE ID可以改成其他语言的。 #include "pch.h" #include <Windows.h> #include <string> #include <stdio.h> #include <iostream>...
  • 网页中文本朗读功能开发实现分享前几天完成了一个需求,在网页中完成鼠标指向哪里,就用语音读出所指的文本。如果是按钮、链接、文本输入框,则还还要给出是什么的提醒。同时针对大段的文本,不能整段的去读,要按照...
  • 项目开源地址 1. https://github.com/ShanaMaid/oho-reader   小说数据接口地址: 1.http://api.zhuishushenqi.com/book/50865988d7a545903b000009
  • 推荐几个好的URL

    2005-09-21 15:51:00
    个人图书馆www.360doc.com/大型软件下载www.51windows.net
  • 使用微软TTS语音引擎实现文本朗读

    万次阅读 2017-11-04 15:51:30
    使用微软TTS语音引擎实现文本朗读、语音识别
  • tts 语音朗读 语音报时 语音提醒 文字转WAV

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 763
精华内容 305
关键字:

朗读引擎url地址大全