第四篇【传奇开心果系列】Python文本和语音相互转换库技术点案例示例:pyttsx3自动化脚本经典案例

传奇开心果短博文系列

  • 系列短博文目录
    • Python文本和语音相互转换库技术点案例示例系列
  • 短博文目录
    • 前言
    • 一、雏形示例代码
    • 二、扩展思路介绍
    • 三、批量处理文本示例代码
    • 四、自定义语音设置示例代码
    • 五、结合其他库和API示例代码
    • 六、语音交互系统示例代码
    • 七、多语言支持示例代码
    • 八、添加语音提示和反馈示例代码
    • 九、结合图形界面示例代码
    • 十、文本预处理和语音合成示例代码
    • 十一、导出语音文件示例代码
    • 十二、语音识别和语音合成的结合示例代码
    • 十三、归纳总结

系列短博文目录

Python文本和语音相互转换库技术点案例示例系列

短博文目录

前言

在这里插入图片描述
在这里插入图片描述使用pyttsx3库创建自动化脚本有几个主要作用:

  1. 语音提示和反馈:通过将文本转换为语音输出,你可以为自动化脚本添加语音提示和反馈功能。这样,你可以通过语音提示告知用户脚本的进度、状态或结果,提供更直观和人性化的交互体验。

  2. 语音报告和通知:自动化脚本可以将生成的报告或通知以语音形式输出,使得用户可以通过听取语音报告来获取脚本执行的结果或重要信息。这对于需要在视觉上无法直接观察脚本输出的场景非常有用。

  3. 辅助无障碍功能:pyttsx3库可以帮助实现无障碍功能,使得视觉障碍用户能够通过听取语音输出来与自动化脚本进行交互。这样,无障碍用户也可以享受到自动化脚本带来的便利和功能。

  4. 自动化语音交互系统:你可以结合pyttsx3库和其他库或API,创建一个完整的语音交互系统。通过语音输入和语音输出,用户可以通过语音与脚本进行交互,实现更自然和便捷的操作。

  5. 多语言支持:pyttsx3库支持多种语言和语音引擎,你可以根据需要选择合适的语言进行语音输出。这使得你可以为不同语言的用户提供本地化的语音交互体验。

总的来说,pyttsx3库为自动化脚本提供了语音合成的能力,使得脚本可以通过语音与用户进行交互、输出报告和通知,以及实现无障碍功能。这为脚本的使用者提供了更多的选择和便利,增强了脚本的可用性和用户体验。

一、雏形示例代码

在这里插入图片描述下面是一个使用pyttsx库创建自动化脚本的示例:

import pyttsx3# 创建一个TTS引擎实例
engine = pyttsx3.init()# 设置要说的文本
text = "Hello, World!"# 说出文本
engine.say(text)# 等待引擎完成语音输出
engine.runAndWait()

这个脚本会使用pyttsx3库创建一个TTS(Text-to-Speech)引擎实例,然后设置要说的文本并将其传递给引擎进行语音输出。engine.say()函数用于将文本传递给引擎,engine.runAndWait()函数用于等待引擎完成语音输出。

你可以根据需要修改text的值来设置要说的文本,然后运行脚本即可听到语音输出。请确保已经安装了pyttsx3库,如果没有安装,可以使用以下命令进行安装:

pip install pyttsx3

二、扩展思路介绍

在这里插入图片描述当涉及到使用pyttsx3库创建自动化脚本时,你可以考虑以下扩展思路:

  1. 批量处理文本:你可以编写一个脚本,从文件中读取一系列文本,然后使用pyttsx3逐个将它们转换为语音输出。这对于批量处理大量文本文件或生成大量语音文件非常有用。

  2. 自定义语音设置:pyttsx3库允许你设置语音的属性,如音量、语速、语调等。你可以根据需要调整这些属性,以获得更符合你要求的语音输出。

  3. 结合其他库和API:你可以将pyttsx3与其他库和API结合使用,以实现更复杂的自动化任务。例如,你可以使用文本分析库来提取关键信息,然后使用pyttsx3将这些信息转换为语音输出。或者,你可以结合语音识别库,将语音转换为文本,然后使用pyttsx3将文本转换回语音输出。

  4. 语音交互系统:你可以使用pyttsx3库创建一个简单的语音交互系统。通过监听用户的语音输入,将其转换为文本,然后使用pyttsx3将回应转换为语音输出。这可以用于构建语音助手、语音控制系统等。

  5. 多语言支持:pyttsx3库支持多种语言和语音引擎。你可以根据需要切换语言和语音引擎,以实现多语言的语音输出。

  6. 添加语音提示和反馈:除了将文本转换为语音输出,你还可以使用pyttsx3库为你的脚本添加语音提示和反馈。例如,在长时间运行的任务中,你可以使用语音提示来告知进度或完成情况。

  7. 结合图形界面:如果你正在开发一个图形界面应用程序,你可以将pyttsx3与图形界面库(如Tkinter、PySide6等)结合使用,以实现语音交互的用户界面。这样,用户不仅可以通过界面操作应用程序,还可以通过语音与应用程序进行交互。

  8. 文本预处理和语音合成:在将文本传递给pyttsx3进行语音合成之前,你可以进行一些文本预处理操作,如文本清洗、分词、标记化等。这可以帮助提高语音合成的质量和准确性。

  9. 导出语音文件:除了实时语音输出,pyttsx3还支持将语音输出保存为音频文件。你可以使用该功能将语音输出保存为文件,以备后续使用或分享。

  10. 语音识别和语音合成的结合:如果你的脚本需要进行语音输入和输出,你可以结合语音识别库(如SpeechRecognition)和pyttsx3,实现语音输入转换为文本,然后将文本转换为语音输出的完整语音交互过程。

这些扩展思路可以帮助你进一步发挥pyttsx3库的功能,根据你的需求定制自动化脚本。记得根据需要查阅相关文档,并灵活运用这些思路来满足你的具体需求。

三、批量处理文本示例代码

在这里插入图片描述当使用pyttsx3库批量处理文本时,你可以编写一个脚本来读取文本文件,并将每个文本逐个转换为语音输出。以下是一个示例代码,演示如何实现这个功能:

import pyttsx3def text_to_speech(text, output_file):engine = pyttsx3.init()engine.save_to_file(text, output_file)engine.runAndWait()def process_text_files(file_list):for file_path in file_list:with open(file_path, 'r') as file:text = file.read()output_file = f"output_{file_path}.mp3"text_to_speech(text, output_file)print(f"Converted {file_path} to {output_file}")# 批量处理文本文件
file_list = ["file1.txt", "file2.txt", "file3.txt"]
process_text_files(file_list)

在这个示例代码中,我们定义了一个text_to_speech函数,它接受一个文本字符串和一个输出文件路径作为参数。这个函数使用pyttsx3库来将文本转换为语音,并将语音保存到指定的输出文件中。

然后,我们定义了一个process_text_files函数,它接受一个文本文件路径的列表作为参数。在这个函数中,我们遍历每个文件路径,打开文本文件并读取其中的文本内容。然后,我们生成一个对应的输出文件路径,并调用text_to_speech函数将文本转换为语音并保存到输出文件中。

最后,我们定义了一个文件路径列表file_list,包含要处理的文本文件的路径。你可以根据实际情况修改这个列表,添加或删除文件路径。

运行这个示例代码后,它将逐个处理文本文件,并将每个文本转换为对应的语音输出文件。输出文件的命名方式为output_原文件名.mp3,例如output_file1.txt.mp3

请注意,这只是一个简单的示例代码,你可以根据自己的需求进行修改和扩展。例如,你可以添加错误处理、调整语音设置、修改输出文件格式等。
当扩展示例代码以添加错误处理、调整语音设置和修改输出文件格式时,可以进行如下修改:

import pyttsx3def text_to_speech(text, output_file, voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)try:engine.save_to_file(text, output_file)engine.runAndWait()print(f"Converted text to {output_file}")except pyttsx3.Error as e:print(f"Error occurred: {e}")def process_text_files(file_list, voice_id=None, rate=None, volume=None, output_format='mp3'):for file_path in file_list:with open(file_path, 'r') as file:text = file.read()output_file = f"output_{file_path}.{output_format}"text_to_speech(text, output_file, voice_id, rate, volume)# 批量处理文本文件
file_list = ["file1.txt", "file2.txt", "file3.txt"]
process_text_files(file_list, voice_id=0, rate=150, volume=1.5, output_format='wav')

在这个修改后的示例代码中,我们对text_to_speech函数进行了修改,添加了错误处理和语音设置的功能。在错误处理部分,我们使用try-except语句捕获pyttsx3.Error异常,并打印出错误消息。这样可以在出现错误时,及时通知用户并进行相应处理。

在语音设置部分,我们添加了三个参数:voice_idratevolumevoice_id参数用于选择语音引擎的声音,可以通过设置不同的索引值来选择不同的声音。rate参数用于调整语音的速度,可以设置一个整数值,表示语音的速度。volume参数用于调整语音的音量,可以设置一个浮点数值,表示音量的大小。

process_text_files函数中,我们添加了output_format参数,用于指定输出文件的格式。默认为mp3格式。你可以根据需要修改为其他支持的格式,如wavogg等。

最后,我们调用process_text_files函数时,传入了相应的参数来进行语音设置和输出文件格式的修改。你可以根据实际需求调整这些参数的值。

请注意,这只是一个示例代码,你可以根据自己的需求进行修改和扩展。例如,你可以添加更多的语音设置选项、修改输出文件命名方式、添加更详细的错误处理逻辑等。

四、自定义语音设置示例代码

在这里插入图片描述当使用pyttsx3库自定义语音设置时,你可以根据需要调整音量、语速、语调等属性。以下是一个示例代码,演示如何设置这些属性:

import pyttsx3def text_to_speech(text, output_file, voice_id=None, rate=None, volume=None, pitch=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)if pitch:engine.setProperty('pitch', pitch)try:engine.save_to_file(text, output_file)engine.runAndWait()print(f"Converted text to {output_file}")except pyttsx3.Error as e:print(f"Error occurred: {e}")# 示例调用
text = "Hello, how are you?"
output_file = "output.mp3"
text_to_speech(text, output_file, volume=1.5, rate=150, pitch=50)

在这个示例代码中,我们修改了text_to_speech函数,添加了pitch参数用于设置语音的语调。

pyttsx3库的setProperty方法可以用来设置语音引擎的属性。我们使用setProperty方法来设置音量(volume)、语速(rate)、语调(pitch)等属性。

在示例调用中,我们传入了相应的参数来设置音量为1.5倍,语速为150,语调为50。你可以根据需要调整这些参数的值。

请注意,具体可用的属性值和范围可能因语音引擎和系统而有所不同。你可以根据自己的需求和实际情况进行调整。

五、结合其他库和API示例代码

在这里插入图片描述结合其他库和API可以实现更复杂的自动化任务。以下是一个示例代码,演示了如何结合文本分析库和pyttsx3库,以提取关键信息并将其转换为语音输出:

import pyttsx3
from nltk import pos_tag, word_tokenizedef extract_keywords(text):# 使用nltk库进行词性标注和分词tokens = word_tokenize(text)tagged = pos_tag(tokens)# 提取名词和形容词作为关键词keywords = [word for word, pos in tagged if pos.startswith('NN') or pos.startswith('JJ')]return keywordsdef text_to_speech(text, output_file, voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)try:engine.save_to_file(text, output_file)engine.runAndWait()print(f"Converted text to {output_file}")except pyttsx3.Error as e:print(f"Error occurred: {e}")# 示例调用
text = "The quick brown fox jumps over the lazy dog"
output_file = "output.mp3"# 提取关键词
keywords = extract_keywords(text)# 将关键词转换为语音输出
keyword_text = ', '.join(keywords)
text_to_speech(keyword_text, output_file, volume=1.5, rate=150)

在这个示例代码中,我们使用了nltk库进行词性标注和分词,然后提取名词和形容词作为关键词。你可以根据需要使用其他文本分析库或API来提取关键信息。

在示例调用中,我们首先使用extract_keywords函数提取关键词。然后,将关键词转换为逗号分隔的文本,并将其传递给text_to_speech函数进行语音转换。

你还可以结合语音识别库,将语音转换为文本,然后使用pyttsx3将文本转换为语音输出。这样可以实现语音交互系统或语音助手等功能。

六、语音交互系统示例代码

在这里插入图片描述创建一个完整的语音交互系统需要结合语音识别库和语音合成库。在这个示例中,我们将使用SpeechRecognition库进行语音识别,然后使用pyttsx3库进行语音合成。以下是一个简单的示例代码:

import speech_recognition as sr
import pyttsx3def listen():r = sr.Recognizer()with sr.Microphone() as source:print("Listening...")audio = r.listen(source)try:text = r.recognize_google(audio)return textexcept sr.UnknownValueError:print("Sorry, I didn't understand.")except sr.RequestError as e:print(f"Request error: {e}")return ""def speak(text, voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)engine.say(text)engine.runAndWait()# 示例调用
while True:# 监听用户的语音输入user_input = listen()print("User:", user_input)# 判断用户的语音输入并作出回应if "hello" in user_input:speak("Hello, how can I help you?")elif "goodbye" in user_input:speak("Goodbye!")breakelse:speak("Sorry, I didn't understand. Can you please repeat?")

在这个示例代码中,我们使用SpeechRecognition库的Recognizer类进行语音识别。我们使用麦克风作为输入源,并使用Google语音识别API进行语音转文本的识别。

listen函数中,我们使用recognize_google方法将语音转换为文本,并返回识别的文本结果。

speak函数中,我们使用pyttsx3库将文本转换为语音输出。

在示例调用中,我们通过循环监听用户的语音输入,并根据用户的输入作出相应的回应。如果用户说"hello",则回应"Hello, how can I help you?";如果用户说"goodbye",则回应"Goodbye!“并退出循环;否则,回应"Sorry, I didn’t understand. Can you please repeat?”。

你可以根据需要扩展和定制这个系统,添加更多的语音命令和回应。

七、多语言支持示例代码

在这里插入图片描述
在这里插入图片描述
pyttsx3库支持多种语言和语音引擎,可以根据需要进行切换。以下是一个示例代码,演示了如何使用不同的语言和语音引擎进行语音输出:

import pyttsx3def speak(text, language='en', voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()# 示例调用
speak("Hello, how are you?", language='en', voice_id=0)
speak("你好,你好吗?", language='zh', voice_id=0)

在这个示例代码中,我们定义了speak函数,用于将文本转换为语音输出。

speak函数中,我们使用pyttsx3库的init方法初始化语音引擎。

我们可以通过setProperty方法设置语音引擎的属性,包括语音、速率和音量。voice_id参数用于选择特定的语音,可以使用engine.getProperty('voices')获取可用的语音列表。

我们可以使用setProperty方法设置语言,使用ISO 639-1代码表示。例如,'en’表示英语,'zh’表示中文。

在示例调用中,我们分别使用英语和中文进行语音输出。language参数用于指定语言,voice_id参数用于指定特定的语音。

你可以根据需要切换语言和语音引擎,以满足具体的需求。

八、添加语音提示和反馈示例代码

在这里插入图片描述确实,你可以使用pyttsx3库为脚本添加语音提示和反馈,以增强用户体验。以下是一个示例代码,演示了如何在长时间运行的任务中使用语音提示来告知进度或完成情况:

import pyttsx3def speak(text, language='en', voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()# 示例调用
speak("开始处理数据,请稍等...", language='zh', voice_id=0)# 模拟长时间运行的任务
for i in range(10):# 执行任务的代码print(f"正在处理第 {i+1} 个数据...")# 使用语音提示告知进度speak(f"正在处理第 {i+1} 个数据...", language='zh', voice_id=0)# 完成任务后使用语音提示
speak("数据处理完成!", language='zh', voice_id=0)

在这个示例代码中,我们定义了speak函数,用于将文本转换为语音输出。

我们在任务开始前使用语音提示告知用户开始处理数据。

然后,我们使用循环模拟长时间运行的任务,在每次循环中执行任务的代码,并使用语音提示告知当前进度。

最后,当任务完成后,我们使用语音提示告知用户数据处理完成。

通过在适当的位置添加语音提示,用户可以通过听取语音消息来了解任务的进度和状态,提升用户体验。

你可以根据需要在适当的位置使用语音提示,以满足具体的需求。

九、结合图形界面示例代码

在这里插入图片描述
在这里插入图片描述
当结合pyttsx3和图形界面库(如Tkinter)时,你可以创建一个具有语音交互功能的用户界面应用程序。
在这里插入图片描述

  1. 以下是一个示例代码,演示了如何结合pyttsx3和Tkinter.ttk库创建一个简单的语音交互界面:
import pyttsx3
import tkinter as tk
from tkinter import ttkdef speak(text, language='en', voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()def on_button_click():user_input = entry.get()speak(f"You entered: {user_input}", language='en', voice_id=0)# 创建Tkinter窗口
window = tk.Tk()
window.title("语音交互界面")# 创建标签和输入框
label = ttk.Label(window, text="请输入文本:")
label.pack()
entry = ttk.Entry(window)
entry.pack()# 创建按钮
button = ttk.Button(window, text="提交", command=on_button_click)
button.pack()# 运行Tkinter事件循环
window.mainloop()

在这个示例代码中,我们创建了一个简单的Tkinter窗口应用程序。

我们定义了speak函数,用于将文本转换为语音输出。

on_button_click函数中,我们获取用户在输入框中输入的文本,并使用语音提示告知用户输入的内容。

我们创建了一个标签、一个输入框和一个按钮,用于用户输入文本和提交。

当用户点击按钮时,会触发on_button_click函数,将用户输入的文本传递给speak函数进行语音输出。

通过结合pyttsx3和Tkinter库,你可以实现一个具有语音交互功能的用户界面应用程序。用户可以通过界面输入文本,并通过语音输出进行交互。

希望这个示例能帮助你开始开发一个结合图形界面和语音交互的应用程序。你可以根据需要进行进一步的定制和扩展。
在这里插入图片描述
在这里插入图片描述当结合pyttsx3和PySide6时,你可以创建一个具有语音交互功能的用户界面应用程序。

  1. 以下是一个示例代码,演示了如何结合pyttsx3和PySide6库创建一个简单的语音交互界面:
import pyttsx3
from PySide6.QtCore import Qt
from PySide6.QtWidgets import QApplication, QMainWindow, QLabel, QLineEdit, QPushButtondef speak(text, language='en', voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()class MainWindow(QMainWindow):def __init__(self):super().__init__()self.setWindowTitle("语音交互界面")# 创建标签和输入框self.label = QLabel("请输入文本:", self)self.label.setAlignment(Qt.AlignCenter)self.label.setGeometry(50, 50, 200, 30)self.entry = QLineEdit(self)self.entry.setGeometry(50, 100, 200, 30)# 创建按钮self.button = QPushButton("提交", self)self.button.setGeometry(50, 150, 200, 30)self.button.clicked.connect(self.on_button_click)def on_button_click(self):user_input = self.entry.text()speak(f"You entered: {user_input}", language='en', voice_id=0)# 创建PySide6应用程序
app = QApplication([])
window = MainWindow()
window.show()# 运行应用程序事件循环
app.exec()

在这个示例代码中,我们创建了一个简单的PySide6窗口应用程序。

我们定义了speak函数,用于将文本转换为语音输出。

我们创建了一个MainWindow类,继承自QMainWindow,作为主窗口。

MainWindow类中,我们创建了一个标签、一个输入框和一个按钮,用于用户输入文本和提交。

当用户点击按钮时,会触发on_button_click方法,获取用户输入的文本,并使用语音提示告知用户输入的内容。

通过结合pyttsx3和PySide6库,你可以实现一个具有语音交互功能的用户界面应用程序。用户可以通过界面输入文本,并通过语音输出进行交互。

希望这个示例能帮助你开始开发一个结合PySide6和语音交互的应用程序。你可以根据需要进行进一步的定制和扩展。

十、文本预处理和语音合成示例代码

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述当使用pyttsx3进行语音合成之前,你可以进行一些文本预处理操作来提高语音合成的质量和准确性。以下是一个示例代码,演示了如何使用nltk库进行文本预处理,并将预处理后的文本传递给pyttsx3进行语音合成:

import pyttsx3
import nltk
from nltk.tokenize import word_tokenize
from nltk.corpus import stopwords
from string import punctuationdef preprocess_text(text):# 将文本转换为小写text = text.lower()# 分词tokens = word_tokenize(text)# 去除停用词和标点符号stop_words = set(stopwords.words('english'))tokens = [token for token in tokens if token not in stop_words and token not in punctuation]# 重新组合文本processed_text = ' '.join(tokens)return processed_textdef speak(text, language='en', voice_id=None, rate=None, volume=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()# 示例文本
text = "Hello, how are you? I'm doing great!"# 文本预处理
processed_text = preprocess_text(text)# 语音合成
speak(processed_text, language='en', voice_id=0)

在这个示例代码中,我们引入了nltk库,它是一个用于自然语言处理的强大工具。

我们定义了preprocess_text函数,用于对文本进行预处理。在这个函数中,我们将文本转换为小写,进行分词,去除停用词和标点符号,并重新组合文本。

speak函数中,我们使用pyttsx3进行语音合成。

我们首先定义了一个示例文本,然后对其进行预处理。

最后,我们将预处理后的文本传递给pyttsx3speak函数进行语音合成。

通过进行文本预处理操作,你可以提高语音合成的质量和准确性。你可以根据需要扩展preprocess_text函数,添加其他的文本处理步骤,以适应你的应用场景。

十一、导出语音文件示例代码

在这里插入图片描述
在这里插入图片描述
pyttsx3支持将语音输出保存为音频文件。以下是一个示例代码,演示了如何使用pyttsx3将语音输出保存为音频文件:

import pyttsx3def speak(text, language='en', voice_id=None, rate=None, volume=None, output_file=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)if rate:engine.setProperty('rate', rate)if volume:engine.setProperty('volume', volume)# 设置语言engine.setProperty('language', language)if output_file:# 将语音输出保存为音频文件engine.save_to_file(text, output_file)engine.runAndWait()else:# 实时语音输出engine.say(text)engine.runAndWait()# 示例文本
text = "Hello, how are you? I'm doing great!"# 将语音输出保存为音频文件
output_file = "output.wav"
speak(text, language='en', voice_id=0, output_file=output_file)print(f"语音输出已保存为文件: {output_file}")

在这个示例代码中,我们对speak函数进行了修改,添加了一个output_file参数用于指定输出文件的路径。

如果提供了output_file参数,则将语音输出保存为音频文件;否则,进行实时语音输出。

在示例中,我们将语音输出保存为名为output.wav的音频文件。

通过使用output_file参数,你可以方便地将语音输出保存为音频文件,以便后续使用或分享。

十二、语音识别和语音合成的结合示例代码

在这里插入图片描述当你的脚本需要进行语音输入和输出时,你可以结合使用语音识别库(如SpeechRecognition)和pyttsx3,实现完整的语音交互过程。以下是一个示例代码,演示了如何结合使用这两个库:

import speech_recognition as sr
import pyttsx3def speech_to_text():r = sr.Recognizer()with sr.Microphone() as source:print("请说话...")audio = r.listen(source)try:text = r.recognize_google(audio, language='en')return textexcept sr.UnknownValueError:print("抱歉,无法识别语音")except sr.RequestError as e:print(f"请求错误:{e}")def text_to_speech(text, language='en', voice_id=None):engine = pyttsx3.init()# 设置语音引擎属性if voice_id:voices = engine.getProperty('voices')engine.setProperty('voice', voices[voice_id].id)# 设置语言engine.setProperty('language', language)engine.say(text)engine.runAndWait()# 语音输入
input_text = speech_to_text()
print(f"识别结果: {input_text}")# 语音输出
text_to_speech(input_text, language='en', voice_id=0)

在这个示例代码中,我们使用了speech_recognition库进行语音识别,以及pyttsx3库进行语音合成。

首先,我们定义了speech_to_text函数,用于将语音输入转换为文本。在这个函数中,我们使用麦克风作为音频源,使用recognize_google方法将音频转换为文本。

然后,我们定义了text_to_speech函数,用于将文本转换为语音输出。在这个函数中,我们使用pyttsx3进行语音合成。

在主程序中,我们首先调用speech_to_text函数进行语音输入,并将结果存储在input_text变量中。

然后,我们调用text_to_speech函数将input_text转换为语音输出。

通过结合使用语音识别库和pyttsx3,你可以实现完整的语音交互过程。你可以根据需要进行定制和扩展,例如添加错误处理、调整语音设置、结合其他库和API等。

十三、归纳总结

在这里插入图片描述当使用pyttsx3库创建自动化脚本时,以下是一些关键的知识点归纳:

  1. 初始化语音引擎:使用pyttsx3.init()方法初始化语音引擎,返回一个Engine对象。

  2. 设置语音引擎属性:使用engine.setProperty()方法可以设置语音引擎的属性,例如语言、声音、语速和音量等。

  3. 获取可用的声音列表:使用engine.getProperty('voices')方法可以获取可用的声音列表。每个声音都有一个唯一的标识符,可以通过voice.id访问。

  4. 实时语音输出:使用engine.say(text)方法将文本转换为语音输出。然后使用engine.runAndWait()方法等待语音输出完成。

  5. 将语音输出保存为音频文件:使用engine.save_to_file(text, output_file)方法可以将语音输出保存为音频文件。需要提供要保存的文本和输出文件的路径。

  6. 错误处理:在使用pyttsx3时,可能会出现错误,例如无法找到声音或无法连接到语音引擎。可以使用try-except语句来捕获和处理这些错误。

  7. 多语言支持:可以使用engine.setProperty('language', language)方法设置语音引擎的语言。可以通过指定语言的标识符(如’en’表示英语)来设置语言。

  8. 自定义语音设置:可以使用engine.setProperty()方法设置其他语音属性,如声音、语速和音量等。可以根据需要进行调整和定制。

  9. 结合其他库和API:可以将pyttsx3与其他库和API结合使用,以实现更复杂的语音功能。例如,结合语音识别库实现语音输入转换为文本,或结合文本处理库进行批量处理文本并生成语音输出。

在这里插入图片描述这些知识点可以帮助你开始使用pyttsx3创建自动化脚本和语音交互系统。你可以根据需要进行定制和扩展,以满足特定的需求。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/691042.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

JavaSE——面向对象基础(1/4)-面向对象编程、程序中的对象、对象的产生、对象的执行原理、类和对象的一些注意事项

目录 面向对象编程 程序中的对象 对象的产生 对象的执行原理 类和对象的一些注意事项 面向对象编程 开发一个一个的对象,把数据交给对象,再调用对象的方法来完成对数据的处理。 例如设计一个学生的对象,其中有姓名和成绩等&#xff0c…

【DDD】学习笔记-应用服务

Eric Evans 为运用领域驱动设计的系统架构划定了层次,在领域层和展现层之间引入了应用层(Application Layer):“应用层要尽量简单,不包含业务规则或者知识,而只为下一层(指领域层)中…

Unity3D中刚体、碰撞组件、物理组件的区别详解

前言 Unity3D提供了丰富的功能和组件,其中包括刚体、碰撞组件和物理组件。这些组件在游戏开发中起着非常重要的作用,能够让游戏世界更加真实和有趣。本文将详细介绍这三种组件的区别以及如何在Unity3D中实现它们。 对惹,这里有一个游戏开发…

MAC M1安装vmware和centos7虚拟机并配置静态ip

一、下载vmware和centos7镜像 1、VMWare Fusion 官网的下载地址是:下载地址 下载好之后注册需要秘钥,在官网注册后使用免费的个人秘钥 2、centos7 下载地址: https://biosyxh.cn:5001/sharing/pAlcCGNJf 二、虚拟机安装 直接将下…

算法沉淀——多源 BFS(leetcode真题剖析)

算法沉淀——多源 BFS(leetcode真题剖析) 01.矩阵02.飞地的数量03.地图中的最高点04.地图分析 多源 BFS 是指从多个源点同时进行广度优先搜索的算法。在传统的 BFS 中,我们通常从一个起始点开始,逐层遍历所有的相邻节点。而在多…

探索AI视频生成新纪元:文生视频Sora VS RunwayML、Pika及StableVideo——谁将引领未来

探索AI视频生成新纪元:文生视频Sora VS RunwayML、Pika及StableVideo——谁将引领未来 sora文生视频,探索AI视频生成新纪元 由于在AI生成视频的时长上成功突破到一分钟,再加上演示视频的高度逼真和高质量,Sora立刻引起了轰动。在S…

408计算机网络--基础概论

学习计算机网络走以前需要首先明白一个大的概念,计算机网络通常分为通信子网(实现数据通信)和资源子网(实现资源共享/数据处理)七层妖塔 计算机网络:是一个将分散的、具有独立功能的计算机系统&#xff0…

Rabbitmq入门与应用(三)-RabbitMQ开发流程

RabbitMQ开发流程 引入依赖 <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-amqp</artifactId> </dependency>配置MQ 最简配置 spring:rabbitmq:host: mq的安装机器ipport: 5672username: ad…

忘记管理员密码

1、在/home/jenkins/config.xml中删除&#xff1a; <useSecurity>true</useSecurity><authorizationStrategy class"hudson.security.FullControlOnceLoggedInAuthorizationStrategy"><denyAnonymousReadAccess>false</denyAnonymousRea…

Hack The Box-Office

端口扫描&信息收集 使用nmap对靶机进行扫描 nmap -sC -sV 10.10.11.3开放了80端口&#xff0c;并且注意到该ip对应的域名为office.htb&#xff0c;将其加入到hosts文件中访问之 注意到扫描出来的还有robots文件&#xff0c;经过尝试后只有administrator界面是可以访问的 …

详解平面点云面积计算

部分代码展示&#xff1a; &#xff08;1&#xff09;利用格网法计算面积&#xff1a; //&#xff08;2&#xff09;测试使用格网法计算平面点云面积 void main() {char *inputpath "D:\\testdata\\data.txt";vector<pcl::PointXYZ> points ReadPointXYZIn…

Java 21 新特性的扫盲级别初体验

一、前言 JDK 21 于 2023 年 9 月发布&#xff0c;作为目前讨论热度最高的JDK&#xff0c;虽然大家都开玩笑说你发任你发&#xff0c;我用Java8&#xff0c;但是作为一个Javaer&#xff0c;对JDK21的新特性还是要有所了解的。 以下是 JDK 21 的新功能列表&#xff1a; 虚拟线…

element-plus日期选择器2次封装

预期效果 官网默认样式&#xff1a; 修改后的样式&#xff1a; 代码实现 DatePicker.vue <template><div class"date-picker-container"><el-date-picker v-model"date" change"handleChange" type"date" value-for…

CMake无Name和Value部分界面

鼠标会变成以下 拉开后就 出现想要的部分

PTA-九九乘法表

从键盘输入n&#xff08;n为1~9&#xff09;&#xff0c;输出九九乘法表的前n行&#xff0c;每个式子按“a * b c”形式输出&#xff0c;其中a和b各占1位列宽&#xff0c;c占4位列宽并左对齐。 输入格式: 一个1~9之间的整数n&#xff0c;如&#xff1a;9 输出&#xff1a; …

vue3项目配置按需自动引入自定义组件unplugin-vue-components

我们通常在项目中&#xff0c;需要手动引入自定义的各种组件&#xff0c;如果涉及的页面功能比较多的话&#xff0c;光是import的长度都能赶上春联了。 如果&#xff0c;能有一个插件帮我们实现自动引入&#xff0c;是不是要谢天谢地了呢&#xff1f; 接下来就进入我们的主角u…

centos中安装go

安装过程 &#xff08;1&#xff09;源码二进制下载地址 wget https://dl.google.com/go/go1.13.5.linux-amd64.tar.gz &#xff08;2&#xff09;将下载的二进制包解压至 /usr/local目录。 tar -C /usr/local/ -xzf go1.13.5.src.tar.gz &#xff08;3&#xff09;设置环…

XR行业首家|李未可科技通过深度合成服务算法备案

2月18日&#xff0c;国家网信办发布第四批深度合成服务算法备案。 根据《互联网信息服务深度合成管理规定》第十九条规定&#xff0c;具有舆论属性或者社会动员能力的深度合成服务提供者&#xff0c;应当按照《互联网信息服务算法推荐管理规定》履行备案和变更、注销备案手续。…

人工智能_普通服务器CPU_安装清华开源人工智能AI大模型ChatGlm-6B_003---人工智能工作笔记0098

前面的环境安装差不多了,这里我没有安装git,因为我认为用不到,好下面去下载算法: 首先是算法下载: https://codeload.github.com/THUDM/ChatGLM-6B/zip/refs/heads/main 算法的下载连接是这里: 可以看到下载以后得到这个ChatGLM-6B-main这个算法压缩包 然后我们再去: 然后…

Guitar Pro8最新官方破解版下载步骤教程

使用Guitar Pro 8的步骤如下&#xff1a; 安装Guitar Pro 8软件。双击打开安装包&#xff0c;按照提示完成安装过程。打开软件后&#xff0c;使用左侧工具栏上的按钮输入谱号和拍号。点击左侧工具栏的和弦图按钮&#xff0c;输入所需要的和弦。使用鼠标和键盘在乐谱中输入乐曲…