精华内容
下载资源
问答
  • 用于视频字幕生成的软注意力机制的 Tensorflow 实现。 一个软注意力机制的例子。 注意力权重 alpha 表示一个视频中基于每个单词的时间注意力。 可以找到在 Torch 中实现的原始代码。 先决条件 Python 2.7 >= 0.7.1 ...
  • autosub-为任意视频自动生成字幕文件的命令行工具
  • 视频字幕 视频字幕生成
  • 利用讯飞的语音转写api进行转写、movieby模块进行音频截取,FFMPEG进行合并。需要申请讯飞的api,免费有5个小时
  • 1、字幕生成:语音识别 使用Netch为pyTranscriber提供本机代理,并用pyTranscriber一键上传通过开源API生成视频相应语言的字幕。 Netch下载:https://github.com/netchx/netch pyTranscriber下载:...

    problem

    • 有一个没有字幕的外语视频,要生成一个中外双字幕的视频。

    1、字幕生成:语音识别

    使用Netch为pyTranscriber提供本机代理,并用pyTranscriber一键上传通过开源API生成视频相应语言的字幕。

    Netch下载:https://github.com/netchx/netch
    pyTranscriber下载:https://github.com/raryelcostasouza/pyTranscriber

    Netch配置:
    服务器里新建Sock5代理,选择本机127.0.0.1和相应的端口。
    模式里新建进程模式,找到pyTranscriber对应的两个文件添加。
    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述
    pyTranscriber配置:
    选择对应的视频文件,视频的语言,点击一键生成字幕即可。

    在这里插入图片描述

    2、字幕翻译&合并

    使用Subtitle Edit一键翻译所有字幕,再和原字幕合并即可生成新的双语字幕。

    Subtitle Edit下载:https://github.com/SubtitleEdit/subtitleedit

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    展开全文
  • 英文视频字幕自动生成

    千次阅读 热门讨论 2020-03-31 14:23:18
    笔者正在制作少儿编程教育系列视频,发现有大量的英文视频资料值得学习,但是视频中缺少字幕,可能会对学生的学习过程带来困扰。如果能够得到英文字幕,再通过谷歌翻译等工具的使用,就可以进一步生成中文字幕。因此...

    笔者正在制作少儿编程教育系列视频,发现有大量的英文视频资料值得学习,但是视频中缺少字幕,可能会对学生的学习过程带来困扰。如果能够得到英文字幕,再通过谷歌翻译等工具的使用,就可以进一步生成中文字幕。因此,开始探索快速生成字幕的方法,本文对实现过程进行记录,笔者的计算机使用的是Windows 10 64位操作系统。

    :需要计算机通过某些方法成功访问谷歌!

    整体流程可划分为:

    • 安装Python2
    • 下载配置ffmepg
    • 下载并修改autosub
    • 运行命令生成视频字幕

    下面依次进行展开:

    1. 安装Python2

    这里需要安装Python2,因为后续要调用autosub,而autosub是用Python2编写的。笔者试过使用Python3,可能会需要大量的改动才能运行,最终还是按照autosub的说明安装了Python2。这里推荐下载Anaconda2进行Python2的安装,可以省去可能存在的关联包下载配置的麻烦。此外,autosub中提示安装32位Python,笔者未测试64位Python是否可行。打开下载的Anaconda2(32位)会出现:

    在这里插入图片描述

    点击“Next”:

    在这里插入图片描述

    选择“I Agree”:

    在这里插入图片描述

    笔者习惯选择“All Users”,点击“Next”:

    在这里插入图片描述

    这里推荐选择一个不含空格和中文的文件夹进行安装,比如“D:\Anaconda2”:

    在这里插入图片描述

    不建议勾选第一个选项,可能造成python不同版本间使用的混乱,比如笔者还安装了Python3。第二项默认勾选即可:

    在这里插入图片描述

    点击“Next”,安装完毕:

    在这里插入图片描述

    1. 下载配置ffmepg

    ffmepg主要用于解析视频内的音频。

    (1)在网站“https://ffmpeg.zeranoe.com/builds/”中,下载满足操作系统要求的ffmepg版本,笔者下载的是ffmpeg-3.2-win64-static。

    (2)将下载后的文件解压,将文件夹重命名为ffmepg(可选),将其整体拷贝到“D:\Anaconda2”内(拷贝到哪个目录可以灵活掌握)。

    (3)将解压后文件内的“bin”目录配置到系统环境变量Path中。

    首先按下Win+R键,启动运行窗口,输入sysdm.cpl:
    在这里插入图片描述
    点击确定,打开系统控制面板,然后选择高级标签:
    在这里插入图片描述

    点击环境变量,在系统变量的窗口内,找到Path:
    在这里插入图片描述

    选中Path环境变量,点击编辑。选择新建,将刚才解压得到的“bin”文件夹所在目录添加到空白处:在这里插入图片描述

    点击确定。到此完成ffmepg的下载和配置。

    1. 下载并修改autosub

    autosub是用于自动生成字幕的工具,在语音转写部分调用的是Google Cloud Speech API。

    (1)使用Anaconda2安装autosub

    安装Anaconda2后,可以找到工具Anaconda Powershell Prompt (Anaconda2),打开后,输入:

    pip install autosub
    

    就可以完成autosub的安装。

    (2)重命名autosub

    autosub安装完成后文件位于“D:\Anaconda2\Scripts”内,将其重命名为“autosub_app.py”。

    (3)修改autosub_app.py代码

    这里对几处重点的修改展开说明,autosub_app.py的全部代码会在文末给出。

    • 代码第48行,加入“, delete=False”,使临时文件不被删除,也就是将:
    temp = tempfile.NamedTemporaryFile(suffix='.flac')
    

    修改为:

    temp = tempfile.NamedTemporaryFile(suffix='.flac', delete=False)
    
    • 代码第127行,加入“.exe”,以保证成功地访问到ffmepg.exe文件,也就是将:
    exe_file = os.path.join(path, program)
    

    修改为:

    exe_file = os.path.join(path, program + ".exe")
    
    • 加入proxy信息

    在引入依赖包后,添加全局proxy_dict,这里只是定义一个字典结构:

    proxy_dict = {
        'http': 'http://127.0.0.1:8118',
        'https': 'https://127.0.0.1:8118',
        'use': False
    }
    

    然后修改类SpeechRecognizer,在__init__方法中加入proxy变量,在__call__方法中添加逻辑,根据命令判断是否使用proxy,发出不同的post请求。

    此外,建议在抛出requests.exceptions.ConnectionError后加入一条打印提示,否则遇到连接Google服务器异常的情况,也不会提示任何错误,而程序最终会获得一个大小为0的srt字幕文件:

    except requests.exceptions.ConnectionError:
        print "ConnectionError\n"
        continue
    

    类SpeechRecognizer修改后如下:

    class SpeechRecognizer(object):
        def __init__(self, language="en", rate=44100, retries=3, api_key=GOOGLE_SPEECH_API_KEY, proxy=proxy_dict):
            self.language = language
            self.rate = rate
            self.api_key = api_key
            self.retries = retries
            self.proxy = proxy
    
        def __call__(self, data):
            try:
                for i in range(self.retries):
                    url = GOOGLE_SPEECH_API_URL.format(lang=self.language, key=self.api_key)
                    headers = {"Content-Type": "audio/x-flac; rate=%d" % self.rate}
                    try:
                        if self.proxy['use']:
                            resp = requests.post(url, data=data, headers=headers, proxies=self.proxy)
                        else:
                            resp = requests.post(url, data=data, headers=headers)
                    except requests.exceptions.ConnectionError:
                        print "ConnectionError\n"
                        continue
    
                    for line in resp.content.split("\n"):
                        try:
                            line = json.loads(line)
                            line = line['result'][0]['alternative'][0]['transcript']
                            return line[:1].upper() + line[1:]
                        except:
                            # no result
                            continue
            except KeyboardInterrupt:
                return
    

    在main方法内加入proxy参数解析代码,这样就可以通过命令行参数来设置proxy:

    parser.add_argument('-P', '--proxy', help="Set proxy server")
    args = parser.parse_args()
    if args.proxy:
        proxy_dict.update({
        'http': args.proxy,
        'https': args.proxy,
        'use': True
    })
    print("Use proxy " + args.proxy)
    

    到此,就完成了代码的配置过程,下面就可以通过命令行,运行程序进行字幕生成了。

    1. 运行命令生成视频字幕

    (1)代理配置信息获取(如果使用国外网络,此步可忽略)

    首先需要找到计算机代理的配置信息。在win10下,右键点击桌面右下角的网络,然后打开“网络和Internet”设置,点击左侧最下方的代理:在这里插入图片描述
    将自动设置代理下的脚本地址,复制粘贴到浏览器地址栏内打开,拉到最下方部分,找到:

    var proxy = "PROXY 127.0.0.1:8118; DIRECT;";
    var direct = 'DIRECT;';
    

    这样就能找到proxy的ip和端口设置,即127.0.0.1:8118。(根据不同工具的使用,这里的ip和端口可能会不同。)

    (2)字幕提取命令

    这里需要再次打开工具Anaconda Powershell Prompt (Anaconda2),将工作目录切换至包含待提取字幕视频的目录内,例如D盘根目录下有一个待提取字幕的视频“01_HowComputersWork_sm.mp4”,首先将工作目录切换至D盘,然后执行命令:

    python D:\Anaconda2\Scripts\autosub_app.py -S en -D en -P http://127.0.0.1:8118 .\01_HowComputersWork_sm.mp4
    

    如果使用国外网络,即可不配置-P及后面的参数,命令为:

    python D:\Anaconda2\Scripts\autosub_app.py -S en -D en .\01_HowComputersWork_sm.mp4
    

    运行结果如下:在这里插入图片描述
    程序运行最后可能会报WindowsError,笔者还没有找到解决方案,但是这并不影响程序的功能,字幕已经成功生成,可以在D盘根目录下看到“01_HowComputersWork_sm.srt”文件,打开视频导入字幕效果如下:

    在这里插入图片描述

    当然,自动生成的字幕有待进一步审核校验。

    autosub_app.py代码:

    #!D:\Anaconda2\python.exe
    import argparse
    import audioop
    from googleapiclient.discovery import build
    import json
    import math
    import multiprocessing
    import os
    import requests
    import subprocess
    import sys
    import tempfile
    import wave
    
    from progressbar import ProgressBar, Percentage, Bar, ETA
    
    from autosub.constants import LANGUAGE_CODES, \
        GOOGLE_SPEECH_API_KEY, GOOGLE_SPEECH_API_URL
    from autosub.formatters import FORMATTERS
    
    proxy_dict = {
        'http': 'http://127.0.0.1:8118',
        'https': 'https://127.0.0.1:8118',
        'use': False
    }
    
    def percentile(arr, percent):
        arr = sorted(arr)
        k = (len(arr) - 1) * percent
        f = math.floor(k)
        c = math.ceil(k)
        if f == c: return arr[int(k)]
        d0 = arr[int(f)] * (c - k)
        d1 = arr[int(c)] * (k - f)
        return d0 + d1
    
    
    def is_same_language(lang1, lang2):
        return lang1.split("-")[0] == lang2.split("-")[0]
    
    
    class FLACConverter(object):
        def __init__(self, source_path, include_before=0.25, include_after=0.25):
            self.source_path = source_path
            self.include_before = include_before
            self.include_after = include_after
    
        def __call__(self, region):
            try:
                start, end = region
                start = max(0, start - self.include_before)
                end += self.include_after
                temp = tempfile.NamedTemporaryFile(suffix='.flac', delete = False)
                command = ["ffmpeg","-ss", str(start), "-t", str(end - start),
                           "-y", "-i", self.source_path,
                           "-loglevel", "error", temp.name]
                subprocess.check_output(command, stdin=open(os.devnull))
                return temp.read()
    
            except KeyboardInterrupt:
                return
    
    class SpeechRecognizer(object):
        def __init__(self, language="en", rate=44100, retries=3, api_key=GOOGLE_SPEECH_API_KEY, proxy=proxy_dict):
            self.language = language
            self.rate = rate
            self.api_key = api_key
            self.retries = retries
            self.proxy = proxy
    
        def __call__(self, data):
            try:
                for i in range(self.retries):
                    url = GOOGLE_SPEECH_API_URL.format(lang=self.language, key=self.api_key)
                    headers = {"Content-Type": "audio/x-flac; rate=%d" % self.rate}
                    try:
                        if self.proxy['use']:
                            resp = requests.post(url, data=data, headers=headers, proxies=self.proxy)
                        else:
                            resp = requests.post(url, data=data, headers=headers)
                    except requests.exceptions.ConnectionError:
                        print "ConnectionError\n"
                        continue
    
                    for line in resp.content.split("\n"):
                        try:
                            line = json.loads(line)
                            line = line['result'][0]['alternative'][0]['transcript']
                            return line[:1].upper() + line[1:]
                        except:
                            # no result
                            continue
            except KeyboardInterrupt:
                return
    
    
    class Translator(object):
        def __init__(self, language, api_key, src, dst):
            self.language = language
            self.api_key = api_key
            self.service = build('translate', 'v2',
                                 developerKey=self.api_key)
            self.src = src
            self.dst = dst
    
        def __call__(self, sentence):
            try:
                if not sentence: return
                result = self.service.translations().list(
                    source=self.src,
                    target=self.dst,
                    q=[sentence]
                ).execute()
                if 'translations' in result and len(result['translations']) and \
                                'translatedText' in result['translations'][0]:
                    return result['translations'][0]['translatedText']
                return ""
    
            except KeyboardInterrupt:
                return
    
    
    def which(program):
        def is_exe(fpath):
            return os.path.isfile(fpath) and os.access(fpath, os.X_OK)
    
        fpath, fname = os.path.split(program)
        if fpath:
            if is_exe(program):
                return program
        else:
            for path in os.environ["PATH"].split(os.pathsep):
                path = path.strip('"')
                exe_file = os.path.join(path, program + ".exe")
                if is_exe(exe_file):
                    return exe_file
        return None
    
    
    def extract_audio(filename, channels=1, rate=16000):
        temp = tempfile.NamedTemporaryFile(suffix='.wav', delete=False)
        if not os.path.isfile(filename):
            print "The given file does not exist: {0}".format(filename)
            raise Exception("Invalid filepath: {0}".format(filename))
        if not which("ffmpeg"):
            print "ffmpeg: Executable not found on machine."
            raise Exception("Dependency not found: ffmpeg")
        command = ["ffmpeg", "-y", "-i", filename, "-ac", str(channels), "-ar", str(rate), "-loglevel", "error", temp.name]
        subprocess.check_output(command, stdin=open(os.devnull))
        return temp.name, rate
    
    
    def find_speech_regions(filename, frame_width=4096, min_region_size=0.5, max_region_size=6):
        reader = wave.open(filename)
        sample_width = reader.getsampwidth()
        rate = reader.getframerate()
        n_channels = reader.getnchannels()
    
        total_duration = reader.getnframes() / rate
        chunk_duration = float(frame_width) / rate
    
        n_chunks = int(total_duration / chunk_duration)
        energies = []
    
        for i in range(n_chunks):
            chunk = reader.readframes(frame_width)
            energies.append(audioop.rms(chunk, sample_width * n_channels))
    
        threshold = percentile(energies, 0.2)
    
        elapsed_time = 0
    
        regions = []
        region_start = None
    
        for energy in energies:
            is_silence = energy <= threshold
            max_exceeded = region_start and elapsed_time - region_start >= max_region_size
    
            if (max_exceeded or is_silence) and region_start:
                if elapsed_time - region_start >= min_region_size:
                    regions.append((region_start, elapsed_time))
                    region_start = None
    
            elif (not region_start) and (not is_silence):
                region_start = elapsed_time
            elapsed_time += chunk_duration
        return regions
    
    
    def main():
        parser = argparse.ArgumentParser()
        parser.add_argument('source_path', help="Path to the video or audio file to subtitle", nargs='?')
        parser.add_argument('-C', '--concurrency', help="Number of concurrent API requests to make", type=int, default=10)
        parser.add_argument('-o', '--output',
                            help="Output path for subtitles (by default, subtitles are saved in \
                            the same directory and name as the source path)")
        parser.add_argument('-F', '--format', help="Destination subtitle format", default="srt")
        parser.add_argument('-S', '--src-language', help="Language spoken in source file", default="en")
        parser.add_argument('-D', '--dst-language', help="Desired language for the subtitles", default="en")
        parser.add_argument('-K', '--api-key',
                            help="The Google Translate API key to be used. (Required for subtitle translation)")
        parser.add_argument('--list-formats', help="List all available subtitle formats", action='store_true')
        parser.add_argument('--list-languages', help="List all available source/destination languages", action='store_true')
        parser.add_argument('-P', '--proxy', help="Set proxy server")
    
        args = parser.parse_args()
    
        if args.proxy:
            proxy_dict.update({
            'http': args.proxy,
            'https': args.proxy,
            'use': True
        })
        print("Use proxy " + args.proxy)
    
    
        if args.list_formats:
            print("List of formats:")
            for subtitle_format in FORMATTERS.keys():
                print("{format}".format(format=subtitle_format))
            return 0
    
        if args.list_languages:
            print("List of all languages:")
            for code, language in sorted(LANGUAGE_CODES.items()):
                print("{code}\t{language}".format(code=code, language=language))
            return 0
    
        if args.format not in FORMATTERS.keys():
            print("Subtitle format not supported. Run with --list-formats to see all supported formats.")
            return 1
    
        if args.src_language not in LANGUAGE_CODES.keys():
            print("Source language not supported. Run with --list-languages to see all supported languages.")
            return 1
    
        if args.dst_language not in LANGUAGE_CODES.keys():
            print(
                "Destination language not supported. Run with --list-languages to see all supported languages.")
            return 1
    
        if not args.source_path:
            print("Error: You need to specify a source path.")
            return 1
    
        audio_filename, audio_rate = extract_audio(args.source_path)
    
        regions = find_speech_regions(audio_filename)
    
        pool = multiprocessing.Pool(args.concurrency)
        converter = FLACConverter(source_path=audio_filename)
        recognizer = SpeechRecognizer(language=args.src_language, rate=audio_rate, api_key=GOOGLE_SPEECH_API_KEY, proxy=proxy_dict)
    
        transcripts = []
        if regions:
            try:
                widgets = ["Converting speech regions to FLAC files: ", Percentage(), ' ', Bar(), ' ', ETA()]
                pbar = ProgressBar(widgets=widgets, maxval=len(regions)).start()
                extracted_regions = []
                for i, extracted_region in enumerate(pool.imap(converter, regions)):
                    extracted_regions.append(extracted_region)
                    pbar.update(i)
                pbar.finish()
    
                widgets = ["Performing speech recognition: ", Percentage(), ' ', Bar(), ' ', ETA()]
                pbar = ProgressBar(widgets=widgets, maxval=len(regions)).start()
    
                for i, transcript in enumerate(pool.imap(recognizer, extracted_regions)):
                    transcripts.append(transcript)
                    pbar.update(i)
                pbar.finish()
    
                if not is_same_language(args.src_language, args.dst_language):
                    if args.api_key:
                        google_translate_api_key = args.api_key
                        translator = Translator(args.dst_language, google_translate_api_key, dst=args.dst_language,
                                                src=args.src_language)
                        prompt = "Translating from {0} to {1}: ".format(args.src_language, args.dst_language)
                        widgets = [prompt, Percentage(), ' ', Bar(), ' ', ETA()]
                        pbar = ProgressBar(widgets=widgets, maxval=len(regions)).start()
                        translated_transcripts = []
                        for i, transcript in enumerate(pool.imap(translator, transcripts)):
                            translated_transcripts.append(transcript)
                            pbar.update(i)
                        pbar.finish()
                        transcripts = translated_transcripts
                    else:
                        print "Error: Subtitle translation requires specified Google Translate API key. \
                        See --help for further information."
                        return 1
    
            except KeyboardInterrupt:
                pbar.finish()
                pool.terminate()
                pool.join()
                print "Cancelling transcription"
                return 1
    
        timed_subtitles = [(r, t) for r, t in zip(regions, transcripts) if t]
        formatter = FORMATTERS.get(args.format)
        formatted_subtitles = formatter(timed_subtitles)
    
        dest = args.output
    
        if not dest:
            base, ext = os.path.splitext(args.source_path)
            dest = "{base}.{format}".format(base=base, format=args.format)
    
    
        with open(dest, 'wb') as f:
            f.write(formatted_subtitles.encode("utf-8"))
    
        print "Subtitles file created at {}".format(dest)
    
        os.remove(audio_filename)
    
        return 0
    
    
    if __name__ == '__main__':
        sys.exit(main())
    

    参考链接:

    https://github.com/agermanidis/autosub/issues/31

    https://github.com/qq2225936589/autosub/blob/master/autosub_app.py

    展开全文
  • 主要介绍了使用Python和百度语音识别生成视频字幕,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  • #!/usr/bin/env python # coding: utf-8 # In[22]: # 导入库 import cv2 from PIL import Image ...# 视频路径 video_path = "C:/Users/koala/Videos/movie.mp4" ...# 字幕矩阵大小 原视频高度 宽带

    在这里插入图片描述

    #!/usr/bin/env python
    # coding: utf-8
    
    # In[22]:
    
    
    # 导入库
    import cv2
    from PIL import Image
    
    
    # In[23]:
    
    
    # 视频路径
    video_path = "C:/Users/koala/Videos/movie.mp4"
    video_capture = cv2.VideoCapture(video_path)
    ret,frame = video_capture.read()
    # 字幕矩阵大小  原视频高度 宽带  及 字幕的高度
    subtitle_shape = [frame.shape[0],frame.shape[1],120]
    # 时间点
    times = [0.5,5,9,10,11,14,17,19,24,26,29,35,37,40,45,49,52,58,60,62,67,71,77,85,90,94,97,99,104,109,115,121,124,127,136,139,141,144]
    # 帧数
    FPS = video_capture.get(5)
    # 截取的图片数组
    clip_images = []
    # 保持图片的位置
    base_path = "D:/subtitle.jpg"
    
    
    # In[24]:
    
    
    # 截取视频指定时间感兴趣的区域
    def get_key_area(video,times,subtitle_shape):
        # 当前关键帧
        key_frame = 0
        # 当前帧
        current_frame = 0
    
        while True:
            ret,frame = video.read()
            if ret:
                current_frame += 1
                if key_frame < len(times) and current_frame == times[key_frame]*FPS:
                    # 匹配完成 关键帧+1
                    key_frame += 1
                    clip = frame[subtitle_shape[0]-subtitle_shape[2]:subtitle_shape[0],0:subtitle_shape[1]]
                    clip_images.append(clip)
    #               cv2.imwrite("D:/" + str(key_frame) + ".jpg",clip)  
            else:
                break
        print("匹配完成 共计图片 数目为:%d "%len(clip_images))
        video.release()
    
    
    # In[25]:
    
    
    def main():
        get_key_area(video_capture,times,subtitle_shape)
        # 生成幕布  长高
        subtitle_image = Image.new("RGB",(subtitle_shape[1],subtitle_shape[2]*len(clip_images)))
        for index,item in enumerate(clip_images):
            # 将图片矩阵转化为PIL 的图片对象
            img = Image.fromarray(item)
            # 左上  右下
            subtitle_image.paste(img,box=(0,index*subtitle_shape[2],subtitle_shape[1],subtitle_shape[2]*(index+1)))
        subtitle_image.save(base_path)
        subtitle_image.show()
    
    
    # In[26]:
    
    
    if __name__ == '__main__':
        main()
        # print(__name__)
    
    
    # In[ ]:
    
    
    
    
    
    
    展开全文
  • 字幕助手是一款免费利用语音识别技术的视频字幕添加软件,这款软件主打视频字幕剪辑和添加功能,能够一键快速添加字幕,同时能够快速导出srt字幕,该软件还具有一键去水印功能,软件可以将繁琐的视频字幕翻译制作...
  • 0.问题 经常要剪视频,有时候自己讲的希望能加个字幕,...选择要生成字幕视频 选择原始比例(可以随便) 选择一段要自动生成字幕的片段点生成 编辑调整字幕 其实到这里的话已经可以生成字幕达到目的了

    0.问题

    • 经常要剪视频,有时候自己讲的希望能加个字幕,但是网上基本都是收费的,而且对于我这种做视频没什么收入的UP主来说有点贵了。所以一直在寻找一个便捷一点的或者说省钱一点的方法。

    • 但是手机上发现有个软件效果还不错,每天免费30分钟:

    显示是会员有30分钟,会员就是注册一下。

    • 快剪辑快字幕功能操作流程如下
    1. 新建项目

    2. 选择要生成字幕的视频

    3. 选择原始比例(可以随便)

    4. 选择一段要自动生成字幕的片段点生成

    5. 编辑调整字幕

    其实到这里的话已经可以生成字幕达到目的了,但是快剪辑的字幕生成慢,而且不好剪辑,想导出到srt字幕文件到电脑上一起完成剪辑。

    1.解决

    • 在应用存储文件夹下找到了这个文件

    里面的内容,疑似json保存的项目工程文件

    用JSON格式化工具看发现,字幕是在stickerlist属性下的text属性,开始和结束时间分别是startTime属性和endTime属性,时间是视频开始到当前的毫秒数。

    • 于是我利用这个文件,用Python写了一个提取字幕的脚本
    #!/usr/bin/python
    # coding=UTF-8
    import json
    import time
    import srt
    from datetime import timedelta
    
    def FlowlogToSrt(log):
        #解析Json为字典
        fldict = json.loads(log)
        #获取字幕列表
        stickerlist = fldict['stickerlist']
    
        #取出字幕
        index = 0
        subs = []
        for sticker in stickerlist:
            #序列号
            index = index + 1
            #开始时间
            startTime = timedelta(milliseconds = sticker["startTime"])
            #结束时间
            endTime = timedelta(milliseconds = sticker["endTime"])
            #内容
            text = sticker["text"]
            #转成srt对象,并存入列表
            subs.append(srt.Subtitle(index=index, start=startTime, end=endTime, content=text))
    
        #转成srt
        srtText = ""
        for sub in subs:
            srtText = srtText + sub.to_srt()
        print(srtText)
    
        #写入文件
        filename = "KuaiJianJiSticker"+time.strftime("%Y_%m_%d_%H_%M_%S", time.localtime())+".srt"
        with open(filename, 'w', encoding="utf-8") as file_object:
            file_object.write(srtText)
    
    if __name__ == "__main__":
        txt = input("请输入手机快剪辑flowlog数据:(数据位于/Android/data/com.qihoo.qeditor/files/keyfiles/flowlog下)\n")
        FlowlogToSrt(txt)
    
    
    • 把那个文件上传到电脑,输入到代码里

      但是好像文件太大了,因为我的是35分钟的会议,基本都有人在说话。

    • 那只好提取出有用的部分咯
      于是在JSON在线格式化这里格式化了一下代码,把结果放到另外一个文件里。
      用Java写了以下代码,用于提取出大致的JSON结构和所需要的部分属性:

    package clearJSON;
    
    import java.io.BufferedReader;
    import java.io.FileInputStream;
    import java.io.IOException;
    import java.io.InputStreamReader;
    
    public class Main {
    	
    	//文件路径
    	static String Path = "D:/eclipse-workspace/clearJSON/clearJSON/json.txt"; 
    	//结果缓存
    	static StringBuilder res = new StringBuilder();
    	
    	public static void main(String[] args) throws IOException, InterruptedException {
    		//行数统计
    		int lineNumber = 0;
    		
    		//读取文件
    		FileInputStream fis=new FileInputStream(Path);
            InputStreamReader isr=new InputStreamReader(fis, "UTF-8");
            BufferedReader br = new BufferedReader(isr);
            String line = "";
            
            while ((line=br.readLine())!=null) {
            	lineNumber++;
            	
            	//结构保留
            	if(line.indexOf('{')!=-1 || line.indexOf('}')!=-1) {
            		add(line);
            		//保证添加的不是空对象
    				if((line=br.readLine())!=null) {
    					//结构里至少有一个属性,添加以“{”开头的下一行
    					add(line);
    				}
    				continue;
    			}
            	
            	//属性保留,需要的属性可以以此类推添加到这里
    			if(line.indexOf("\"startTime\"")!=-1 || line.indexOf("\"text\"")!=-1 || line.indexOf("\"endTime\"")!=-1) {
    				add(line);
    			}
            }
            
            br.close();
            fis.close();
    		
            //输出结果
            System.out.println("一共处理文件行数:"+lineNumber);
            
            //输出精简后的JSON代码
            Thread.sleep(2000);
    		System.out.println(res.toString());
    	}
    	
    	/**
    	 * 添加文本到缓存里
    	 * 完成对结构的判断,依靠‘}’在第一个字符判断是一组属性的结尾,
    	 * 然后删除上一行行末的‘,’
    	 * @param str 要添加的文字
    	 */
    	public static void add(String str) {
    		//判断是不是一组属性的结尾
    		if(str.trim().indexOf('}') == 0) {
    			//删除上一行行末的逗号
    			res.deleteCharAt(res.length()-1);
    		}
    		//添加到缓存
    		res.append(str);
    	}
    }
    
    • 把JSON代码精简到了原来大小的8.6%:

    • 之后再输入到Python里。

      成功生成SRT文件!

    • 导入到ARCTIME中:

      成功导入到ARCTIME中!

    2.总结

    • 基本完成了需求,但是步骤有些麻烦。
    • 今后可以尝试合并Java和Python的部分。
    • 写这篇文章的原因主要还是没钱。
    展开全文
  • 这是一个概念验证 (PoC),演示了源自 HLS 实时流的自动生成字幕的两种不同的端到端实现。 这个 PoC 在的博客上的博客文章“实时自适应视频语音识别”中被引用。 策略 以服务器为中心的策略是首选策略,假设您可以...
  • 随着现在短视频越来越火,剪辑视频、打轴听...其实他的原理很简单,通过用户上传的音视频,进行转码、降噪等等优化处理后,提取人声进行语音识别,最终将识别结果结合分片获取的时间轴,生成字幕文件,供用户下载使用。
  • .mp4 视频字幕生成脚本。 该脚本将 mp4 文件作为输入,并能够根据音频的静音间隔生成时间戳。 根据音频质量,可能需要更改参数。 THRESHOLD = 90 --> Value of threshold to measure silence MAJORITY = 0.6...
  • 1.网易见外是网易人工智能事业部旗下的AI视频翻译产品. 字幕支持手工编辑和下载 不过网易见外 只支持WEB在线操作 并且只支持单个上传操作 目前没有客户端 2.人人译视界 (IOS 安卓 PC客户端都有) 3...
  • 生成视频字幕的pytorch代码
  • 语音视频自动生成字幕功能介绍

    万次阅读 2019-07-21 09:18:58
    语音视频自动生成字幕功能介绍 中国站点https://aismartvip.com香港站点https://hk.aismartvip.com 语音视频识别,自动生成字幕,支持全球120种语音/视频识别: 中文、普通话(中国简体)、中文、普通话(台湾...
  • 视频一键识别生成字幕

    千次阅读 2020-02-24 15:05:54
    前不久我介绍了通过视频生成字幕的技术原理(博客、B站),我现在把这个功能打包成一个易于操作的界面,如下图所属: 操作非常的简单,打开程序后,点击上面【打开要识别的视频按钮】,就会弹出下图的打开文件...
  • 本文从数据预处理开始详细地描述了如何使用 VGG 和循环神经网络构建图像描述系统,对读者使用 Keras 和 ...字幕生成是一个有挑战性的人工智能问题,涉及为给定图像生成文本描述。更多Python视频、源码、资料...
  • 字幕说(http://subspeak.top) ...大家好,今天跟大家分享一下,如何在不出镜的情况下,通过AI制作带有语音、字幕和人脸识别画面的自媒体视频。通过这个方法,我们可以只准备文案,即可快速制作出包...
  • 使用 Python 和百度语音识别生成视频字幕

    万次阅读 多人点赞 2020-01-19 14:43:24
    文章目录从视频中提取音频根据静音对音频分段使用百度语音识别获取 Access Token使用 Raw 数据进行合成生成字幕总结 从视频中提取音频 安装 moviepy pip install moviepy 相关代码: audio_file = work_path + '\\...
  • 视频生成srt文件 bcc 文件转srt文件 依赖, 需要和程序放在同一目录 翻译功能 适用场景: 已经有了源语言字幕文件,但是没有目标语言字幕,这个时候可以使用翻译功能 设计 调用api 翻译英文到中文; 当前集成一下...
  • 最近很多自媒体,都是通过国外的网站, 搬运到抖音等视频媒体平台,那么,他们是如何为视频增加字幕的呢?接下来,我给大家进行一下简单教学!~ 英文视频快速搭配中文字幕 1.进入【分段识别】功能,点击【识别...
  • 这是一个可以识别视频语音自动生成字幕SRT文件的开源软件工具。适用于快速、批量的为媒体(视频/音频)生成中/英文字幕、文本文件的业务场景。 软件截图 GitHub https://github.com/wxbool/video-srt-windows ....
  • 导出音频时间信息自动识别停顿,对声音切片编写函数,对语音分片实现语音识别,得到文字信息对csv文件处理,得到编写srt文件需要的信息处理时间格式的代码主文件调用,并主导srt文件生成 问题 各大平台都有长语音...
  • 文字识别项目背景需求阐述思路首先导包代码详情裁剪视频创建文本判断中文截取字幕访问百度API读取图片&字幕操作主方法控制台输出运行 项目背景 通过获取百度API实现视频文字识别。 需求阐述 将.MP4格式视频裁剪成一...
  • 这个项目的主要目的是实现视频文件字幕的自动生成,基于开源项目autosub(https://github.com/agermanidis/autosub) 整合完成。目前,实现的最好的效果是基于百度API,事实上,作者还尝试了几个基于深度学习模型的...
  • 视频摘要/视频字母生成属于多模态学习下的一个子任务,大体目标就是根据视频内容给出一句文字描述。所生成的caption可用于后续的视频检索等等,也可以直接帮助智能体或者有视觉障碍的人理解现实情况。 典型的架构...
  • Jihosoft推出的最新免费工具——字幕大师,集字幕自动生成字幕翻译、字幕校正、字幕外观编辑等功能为一体的字幕制作软件。版本更新地址:https://www.jihosoft.cn/zimu/
  • 一览引言音频转字幕——autosub字幕处理——srtEditoor字幕翻译——字幕组机翻小助手 引言 音频转字幕——autosub 字幕处理——srtEditoor 字幕翻译——字幕组机翻小助手

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 10,826
精华内容 4,330
关键字:

视频字幕生成