手搓智能音箱——语音识别及调用大模型回应

news2025/3/19 23:37:15

一、代码概述

 

此 Python 代码实现了一个语音交互系统,主要功能为监听唤醒词,在唤醒后接收用户语音问题,利用百度语音识别将语音转换为文本,再调用 DeepSeek API 获取智能回复,最后使用文本转语音功能将回复朗读出来。

二、环境依赖

 

在运行此代码前,需要安装以下 Python 库:

 

  • baidu-aip:用于调用百度语音识别服务。
  • pyttsx3:实现文本转语音功能。
  • dotenv:用于加载环境变量。
  • pyaudio:用于录制音频。
  • wave:用于处理音频文件。
  • requests:用于发送 HTTP 请求。
  • json:用于处理 JSON 数据。

 

可以使用以下命令进行安装:

 

bash

pip install baidu-aip pyttsx3 python-dotenv pyaudio requests

三、环境变量配置

 

需要在项目根目录下创建一个 .env 文件,并添加以下环境变量:

 

plaintext

BAIDU_APP_ID=your_baidu_app_id
BAIDU_API_KEY=your_baidu_api_key
BAIDU_SECRET_KEY=your_baidu_secret_key
DEEPSEEK_API_KEY=your_deepseek_api_key

 

请将 your_baidu_app_idyour_baidu_api_keyyour_baidu_secret_key 替换为你在百度语音平台申请的应用 ID、API 密钥和 Secret 密钥,将 your_deepseek_api_key 替换为你在 DeepSeek 平台申请的 API 密钥。

四、代码模块详细解释

1. 导入必要的库

 

python

from aip import AipSpeech
import pyttsx3
import os
from dotenv import load_dotenv
import wave
import pyaudio
import requests
import json
from datetime import datetime

 

  • AipSpeech:用于调用百度语音识别服务。
  • pyttsx3:实现文本转语音功能。
  • os:用于操作环境变量。
  • load_dotenv:从 .env 文件中加载环境变量。
  • wave:用于处理音频文件。
  • pyaudio:用于录制音频。
  • requests:用于发送 HTTP 请求。
  • json:用于处理 JSON 数据。
  • datetime:虽然代码中未实际使用,但可用于后续添加时间相关功能。

2. 加载环境变量并初始化客户端

 

python

# Load environment variables
load_dotenv()
APP_ID = os.getenv("BAIDU_APP_ID")
API_KEY = os.getenv("BAIDU_API_KEY")
SECRET_KEY = os.getenv("BAIDU_SECRET_KEY")

# Initialize Baidu Speech client
client = AipSpeech(APP_ID, API_KEY, SECRET_KEY)

 

  • load_dotenv():从 .env 文件中加载环境变量。
  • AipSpeech:使用百度提供的应用 ID、API 密钥和 Secret 密钥初始化百度语音识别客户端。

3. 初始化文本转语音引擎

 

python

# Initialize text-to-speech
engine = pyttsx3.init()

# Set Chinese voice if available, and choose a gentle female voice
voices = engine.getProperty('voices')
for voice in voices:
    # 检查音色是否为中文,并且音色名称中包含“female”或“woman”等关键词
    if 'chinese' in voice.name.lower() and ('female' in voice.name.lower() or 'woman' in voice.name.lower()):
        engine.setProperty('voice', voice.id)
        break

 

  • pyttsx3.init():初始化文本转语音引擎。
  • 通过遍历可用语音,选择支持中文且为女性的语音。

4. 调用 DeepSeek API 获取智能回复

 

python

def call_deepseek_api(prompt):
    """Call DeepSeek API for intelligent response"""
    url = "https://api.deepseek.com/v1/chat/completions"
    headers = {
        "Content-Type": "application/json",
        "Authorization": f"Bearer {os.getenv('DEEPSEEK_API_KEY')}"
    }
    data = {
        "model": "deepseek-chat",
        "messages": [{
            "role": "user",
            "content": prompt
        }],
        "temperature": 0.7,
        "max_tokens": 200
    }
    
    try:
        response = requests.post(url, headers=headers, json=data)
        response.raise_for_status()
        result = response.json()
        return result['choices'][0]['message']['content'].strip()
    except Exception as e:
        print(f"Error calling DeepSeek API: {str(e)}")
        return "抱歉,我暂时无法回答这个问题"

 

  • call_deepseek_api 函数:接收用户的问题 prompt,向 DeepSeek API 发送请求,获取智能回复。
  • requests.post:发送 HTTP POST 请求。
  • response.raise_for_status():检查请求是否成功。
  • 若请求失败,捕获异常并返回错误提示信息。

5. 录制音频

 

python

def record_audio(filename, record_seconds=5):
    """Record audio from microphone"""
    CHUNK = 1024
    FORMAT = pyaudio.paInt16
    CHANNELS = 1
    RATE = 16000
    
    p = pyaudio.PyAudio()
    stream = p.open(format=FORMAT,
                    channels=CHANNELS,
                    rate=RATE,
                    input=True,
                    frames_per_buffer=CHUNK)
    
    print("开始录音...")
    frames = []
    for _ in range(0, int(RATE / CHUNK * record_seconds)):
        data = stream.read(CHUNK)
        frames.append(data)
    
    print("录音结束")
    stream.stop_stream()
    stream.close()
    p.terminate()
    
    wf = wave.open(filename, 'wb')
    wf.setnchannels(CHANNELS)
    wf.setsampwidth(p.get_sample_size(FORMAT))
    wf.setframerate(RATE)
    wf.writeframes(b''.join(frames))
    wf.close()

 

  • record_audio 函数:用于录制音频,将录制的音频保存为指定文件名的 .wav 文件。
  • pyaudio.PyAudio():初始化 PyAudio 对象。
  • p.open:打开音频输入流。
  • wave.open:打开音频文件进行写入操作。

6. 监听唤醒词

 

python

def listen_for_wake_word(wake_word="小绿同学"):
    """Listen for the wake word using Baidu Speech Recognition"""
    temp_file = "temp.wav"
    record_audio(temp_file, 3)
    
    with open(temp_file, 'rb') as f:
        audio_data = f.read()
    
    result = client.asr(audio_data, 'wav', 16000, {
        'dev_pid': 1537  # Mandarin
    })
    
    if result.get('err_no') == 0:
        text = result['result'][0]
        if wake_word in text:
            return True
    return False

 

  • listen_for_wake_word 函数:录制 3 秒音频,使用百度语音识别将音频转换为文本,检查文本中是否包含唤醒词。
  • client.asr:调用百度语音识别服务。

7. 获取回复

 

python

def get_response(prompt):
    """Generate response using DeepSeek API"""
    return call_deepseek_api(prompt)

 

  • get_response 函数:调用 call_deepseek_api 函数获取智能回复。

8. 文本转语音

 

python

def speak(text):
    """Convert text to speech"""
    engine.say(text)
    engine.runAndWait()

 

  • speak 函数:使用 pyttsx3 引擎将文本转换为语音并朗读出来。

9. 主函数

 

python

def main():
    print("小绿同学已启动,等待唤醒...")
    while True:
        if listen_for_wake_word():
            print("唤醒成功!请说出你的问题...")
            speak("您好,需要什么帮助")
            temp_file = "question.wav"
            record_audio(temp_file, 5)
            
            with open(temp_file, 'rb') as f:
                audio_data = f.read()
            
            result = client.asr(audio_data, 'wav', 16000, {
                'dev_pid': 1537  # Mandarin
            })
            
            if result.get('err_no') == 0:
                user_input = result['result'][0]
                print(f"你说: {user_input}")
                
                response = get_response(user_input)
                print(f"小绿同学: {response}")
                speak(response)
            else:
                print("抱歉,我没有听清楚")
                speak("抱歉,我没有听清楚")

if __name__ == "__main__":
    main()

 

 

 

 

 

  • main 函数:程序的入口点,不断监听唤醒词,唤醒后录制用户问题,进行语音识别,调用 DeepSeek API 获取回复,并将回复朗读出来。

五、注意事项

 

  • 确保 .env 文件中的环境变量配置正确。
  • 若网络连接不稳定或 DeepSeek API 服务不可用,可能会导致获取回复失败。
  • 录音设备需要正常工作,否则可能无法录制音频。

 

完整代码

 

from aip import AipSpeech
import pyttsx3
import os
from dotenv import load_dotenv
import wave
import pyaudio
import requests
import json
from datetime import datetime

# Load environment variables
load_dotenv()
APP_ID = os.getenv("BAIDU_APP_ID")
API_KEY = os.getenv("BAIDU_API_KEY")
SECRET_KEY = os.getenv("BAIDU_SECRET_KEY")

# Initialize Baidu Speech client
client = AipSpeech(APP_ID, API_KEY, SECRET_KEY)

# Initialize text-to-speech
engine = pyttsx3.init()

# Set Chinese voice if available, and choose a gentle female voice
voices = engine.getProperty('voices')
for voice in voices:
    # 检查音色是否为中文,并且音色名称中包含“female”或“woman”等关键词
    if 'chinese' in voice.name.lower() and ('female' in voice.name.lower() or 'woman' in voice.name.lower()):
        engine.setProperty('voice', voice.id)
        break
def call_deepseek_api(prompt):
    """Call DeepSeek API for intelligent response"""
    url = "https://api.deepseek.com/v1/chat/completions"
    headers = {
        "Content-Type": "application/json",
        "Authorization": f"Bearer {os.getenv('DEEPSEEK_API_KEY')}"
    }
    data = {
        "model": "deepseek-chat",
        "messages": [{
            "role": "user",
            "content": prompt
        }],
        "temperature": 0.7,
        "max_tokens": 200
    }
    
    try:
        response = requests.post(url, headers=headers, json=data)
        response.raise_for_status()
        result = response.json()
        return result['choices'][0]['message']['content'].strip()
    except Exception as e:
        print(f"Error calling DeepSeek API: {str(e)}")
        return "抱歉,我暂时无法回答这个问题"

def record_audio(filename, record_seconds=5):
    """Record audio from microphone"""
    CHUNK = 1024
    FORMAT = pyaudio.paInt16
    CHANNELS = 1
    RATE = 16000
    
    p = pyaudio.PyAudio()
    stream = p.open(format=FORMAT,
                    channels=CHANNELS,
                    rate=RATE,
                    input=True,
                    frames_per_buffer=CHUNK)
    
    print("开始录音...")
    frames = []
    for _ in range(0, int(RATE / CHUNK * record_seconds)):
        data = stream.read(CHUNK)
        frames.append(data)
    
    print("录音结束")
    stream.stop_stream()
    stream.close()
    p.terminate()
    
    wf = wave.open(filename, 'wb')
    wf.setnchannels(CHANNELS)
    wf.setsampwidth(p.get_sample_size(FORMAT))
    wf.setframerate(RATE)
    wf.writeframes(b''.join(frames))
    wf.close()

def listen_for_wake_word(wake_word="小绿"):
    """Listen for the wake word using Baidu Speech Recognition"""
    temp_file = "temp.wav"
    record_audio(temp_file, 3)
    
    with open(temp_file, 'rb') as f:
        audio_data = f.read()
    
    result = client.asr(audio_data, 'wav', 16000, {
        'dev_pid': 1537  # Mandarin
    })
    
    if result.get('err_no') == 0:
        text = result['result'][0]
        if wake_word in text:
            return True
    return False

def get_response(prompt):
    """Generate response using DeepSeek API"""
    return call_deepseek_api(prompt)

def speak(text):
    """Convert text to speech"""
    engine.say(text)
    engine.runAndWait()

def main():
    print("小绿已启动,等待唤醒...")
    while True:
        if listen_for_wake_word():
            print("唤醒成功!请说出你的问题...")
            speak("您好,需要什么帮助")
            temp_file = "question.wav"
            record_audio(temp_file, 5)
            
            with open(temp_file, 'rb') as f:
                audio_data = f.read()
            
            result = client.asr(audio_data, 'wav', 16000, {
                'dev_pid': 1537  # Mandarin
            })
            
            if result.get('err_no') == 0:
                user_input = result['result'][0]
                print(f"你说: {user_input}")
                
                response = get_response(user_input)
                print(f"小绿: {response}")
                speak(response)
            else:
                print("抱歉,我没有听清楚")
                speak("抱歉,我没有听清楚")

if __name__ == "__main__":
    main()

修改了一些,调用百度进行了语音合成输出,回答更自然一些

 

from aip import AipSpeech
import os
from dotenv import load_dotenv
import wave
import pyaudio
import requests
import json
from datetime import datetime
import pygame  # 用于播放音频
import tempfile

# Load environment variables
load_dotenv()
APP_ID = os.getenv("BAIDU_APP_ID")
API_KEY = os.getenv("BAIDU_API_KEY")
SECRET_KEY = os.getenv("BAIDU_SECRET_KEY")

# Initialize Baidu Speech client
client = AipSpeech(APP_ID, API_KEY, SECRET_KEY)

def call_deepseek_api(prompt):
    """Call DeepSeek API for intelligent response"""
    url = "https://api.deepseek.com/v1/chat/completions"
    headers = {
        "Content-Type": "application/json",
        "Authorization": f"Bearer {os.getenv('DEEPSEEK_API_KEY')}"
    }
    data = {
        "model": "deepseek-chat",
        "messages": [{
            "role": "user",
            "content": prompt
        }],
        "temperature": 0.7,
        "max_tokens": 200
    }
    
    try:
        response = requests.post(url, headers=headers, json=data)
        response.raise_for_status()
        result = response.json()
        return result['choices'][0]['message']['content'].strip()
    except Exception as e:
        print(f"Error calling DeepSeek API: {str(e)}")
        return "抱歉,我暂时无法回答这个问题"

def record_audio(filename, record_seconds=5):
    """Record audio from microphone"""
    CHUNK = 1024
    FORMAT = pyaudio.paInt16
    CHANNELS = 1
    RATE = 16000
    
    p = pyaudio.PyAudio()
    stream = p.open(format=FORMAT,
                    channels=CHANNELS,
                    rate=RATE,
                    input=True,
                    frames_per_buffer=CHUNK)
    
    print("开始录音...")
    frames = []
    for _ in range(0, int(RATE / CHUNK * record_seconds)):
        data = stream.read(CHUNK)
        frames.append(data)
    
    print("录音结束")
    stream.stop_stream()
    stream.close()
    p.terminate()
    
    wf = wave.open(filename, 'wb')
    wf.setnchannels(CHANNELS)
    wf.setsampwidth(p.get_sample_size(FORMAT))
    wf.setframerate(RATE)
    wf.writeframes(b''.join(frames))
    wf.close()

def listen_for_wake_word(wake_word="小绿"):
    """Listen for the wake word using Baidu Speech Recognition"""
    temp_file = "temp.wav"
    record_audio(temp_file, 3)
    
    with open(temp_file, 'rb') as f:
        audio_data = f.read()
    
    result = client.asr(audio_data, 'wav', 16000, {
        'dev_pid': 1537  # Mandarin
    })
    
    if result.get('err_no') == 0:
        text = result['result'][0]
        if wake_word in text:
            return True
    return False

def get_response(prompt):
    """Generate response using DeepSeek API"""
    return call_deepseek_api(prompt)



def speak(text):
    """Convert text to speech using Baidu TTS"""
    result = client.synthesis(text, 'zh', 1, {
        'vol': 5,  # 音量,取值0-15,默认为5中音量
        'spd': 4,  # 语速,取值0-9,默认为5中语速
        'pit': 5,  # 音调,取值0-9,默认为5中语调
        'per': 4   # 发音人选择,0为女声,1为男声,3为度逍遥,4为度丫丫
    })
    
    if not isinstance(result, dict):
        # 使用临时文件
        with tempfile.NamedTemporaryFile(suffix=".mp3", delete=False) as f:
            f.write(result)
            temp_path = f.name
        
        # 播放语音文件
        pygame.mixer.init()
        pygame.mixer.music.load(temp_path)
        pygame.mixer.music.play()
        
        # 等待播放完成
        while pygame.mixer.music.get_busy():
            pygame.time.Clock().tick(10)  # 控制循环频率,避免占用过多 CPU
        
        # 强制释放资源
        pygame.mixer.music.stop()
        pygame.mixer.quit()
        
        # 播放完成后删除临时文件
        os.remove(temp_path)
    else:
        print(f"语音合成失败: {result}")

def main():
    print("小绿已启动,等待唤醒...")
    while True:
        if listen_for_wake_word():
            print("您好,需要什么帮助....")
            speak("您好,需要什么帮助")
            temp_file = "question.wav"
            record_audio(temp_file, 5)
            
            with open(temp_file, 'rb') as f:
                audio_data = f.read()
            
            result = client.asr(audio_data, 'wav', 16000, {
                'dev_pid': 1537  # Mandarin
            })
            
            if result.get('err_no') == 0:
                user_input = result['result'][0]
                print(f"你说: {user_input}")
                
                response = get_response(user_input)
                print(f"小绿: {response}")
                speak(response)
            else:
                print("抱歉,我没有听清楚")
                speak("抱歉,我没有听清楚")

if __name__ == "__main__":
    main()

 

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2318033.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Modbus通信协议基础知识总结

1. 数据类型与存储区分类 Modbus协议将数据分为四类存储区,通过存储区代号区分: 输出线圈(0x):可读写,对应二进制开关量(如继电器状态),地址范围000001-065536&#xff…

AndroidStudio下载安装,环境部署以及常见问题解决教程(亲测)

AndroidStudio下载安装,环境部署以及常见问题解决!!! 文章目录 前言 一、Android Studio 下载与安装 1.1 系统要求 1.2 下载 Android Studio 1.3 安装 Android Studio Windows 系统 1.4 初始配置 二、环境部署 2.1 安装 …

开源免费一句话生成儿童故事视频核心思想解析

再看一个演示视频,学会核心思想后,可以打造自己的内容生成工具,后文有基于飞书多维表格的实现效果: 一句话灵感生成儿童故事视频演示 这是一款专门为内容素材创作打造的创新工具,可根据用户输入的主题,快速…

数据结构——最短路(BFS,Dijkstra,Floyd)

完整版可以看我的最短路问题模版总结_稠密图最短路-CSDN博客 考研数据结构只考BFS,Dijkstra和Floyd 下面代码以Acwing模板题为例 BFS代码 适用类型&#xff1a; 1.单源最短路径 2.无权图 3.不适用于带权图和负权回路图 //Acwing走迷宫bfs #include<bits/stdc.h>usi…

Kali Linux汉化教程:轻松设置中文界面

1.打开终端 2.输入sudo dpkg-reconfigure locales&#xff0c;回车&#xff0c;输入密码&#xff0c;回车 sudo dpkg-reconfigure locales 3.往下滑&#xff0c;滑到底&#xff0c;找到‘zh_CN.UTF-8 UTF-8’,回车 4.选择‘zh_CN.UTF-8’,回车 5.没有 ‘zh_CN.UTF-8’选项的特…

C++和标准库速成(八)——指针、动态数组、const、constexpr和consteval

目录 1. 指针和动态数组1.1 栈和自由存储区1.2 使用指针1.3 动态分配的数组1.4 空指针常量 2. const2.1 const修饰类型2.2 const与指针2.3 使用const保护参数2.4 const方法(建议&#xff09; 3. constexpr4. consteval参考 1. 指针和动态数组 动态内存允许所创建的程序具有在编…

超声重建,3D重建 超声三维重建,三维可视化平台 UR 3D Reconstruction

1. 超声波3D重建技术的实现方法与算法 技术概述 3D超声重建是一种基于2D超声图像生成3D体积数据的技术&#xff0c;广泛应用于医学影像领域。通过重建和可视化三维结构&#xff0c;3D超声能够显著提高诊断精度和效率&#xff0c;同时减少医生的脑力负担。本技术文档将详细阐述…

[HelloCTF]PHPinclude-labs超详细WP-Level 6Level 7Level 8Level 9-php://协议

由于Level 6-9 关的原理都是通用的, 这里就拿第6关举例, 其他的关卡同理 源码分析 定位到代码 isset($_GET[wrappers]) ? include("php://".$_GET[wrappers]) : ; 与前几关发生变化的就是 php:// 解题分析 这一关要求我们使用 php协议 php:// 协议 php://filte…

【Linux】Bash是什么?怎么使用?

李升伟 整理 什么是 Bash&#xff1f; Bash&#xff08;Bourne Again Shell&#xff09;是一种 命令行解释器&#xff08;Shell&#xff09;&#xff0c;广泛用于 Unix 和 Linux 操作系统。它是 Bourne Shell&#xff08;sh&#xff09; 的增强版&#xff0c;提供了更多的功能…

如何创建并保存HTML文件?零基础入门教程

原文&#xff1a;如何创建并保存HTML文件&#xff1f;零基础入门教程 | w3cschool笔记 本文将以Windows系统为例&#xff0c;教你用最简单的记事本创建并保存第一个HTML网页。 &#x1f4dd; 第一步&#xff1a;准备工具 文本编辑器&#xff1a;使用系统自带的记事本&#xff…

React19源码系列之FiberRoot节点和Fiber节点

在上一篇文章&#xff0c;看了createRoot函数的大致流程。 createContainer函数创建并返回了FiberRoot 。FiberRoot是由createFiberRoot函数创建&#xff0c; createFiberRoot函数还将 FiberRoot和 根Fiber 通过current属性建立起了联系。将FiberRoot作为参数传给 ReactDOMRoo…

TCP协议的多线程应用、多线程下的网络编程

DAY13.2 Java核心基础 多线程下的网络编程 基于单点连接的方式&#xff0c;一个服务端对应一个客户端&#xff0c;实际运行环境中是一个服务端需要对应多个客户端 创建ServerSocketNable类&#xff0c;多线程接收socket对象 public class ServerSocketNable implements Run…

华为中小型企业项目案例

实验目的(1) 熟悉华为交换机和路由器的应用场景 (2) 掌握华为交换机和路由器的配置方法 实验拓扑实验拓扑如图所示。 华为中小型企业项目案例拓扑图 实验配置市场部和技术部的配置创建VLANLSW1的配置 [LSW1]vlan batch 10 20 [LSW1]q…

LabVIEW VI Scripting随机数波形图自动生成

通过LabVIEW VI Scripting 技术&#xff0c;实现从零开始编程化创建并运行一个随机数波形监测VI。核心功能包括自动化生成VI框架、添加控件与函数、配置数据流逻辑及界面布局优化&#xff0c;适用于批量生成测试工具、教学模板开发或复杂系统的模块化构建。通过脚本化操作&…

MATLAB 控制系统设计与仿真 - 26

状态空间控制系统概述 状态空间描述 现代控制理论是建立在状态空间基础上的控制系统分析和设计理论&#xff0c;它用状态变量来刻画系统的内部特征&#xff0c;用‘一节微分方程组’来描述系统的动态特性。系统的状态空间模型描述了系统输入/输出与内部状态之间的关系&#x…

Python----计算机视觉处理(Opencv:图像镜像旋转)

一、图像镜像旋转 图像的旋转是围绕一个特定点进行的&#xff0c;而图像的镜像旋转则是围绕坐标轴进行的。图像镜像旋转&#xff0c;也可 以叫做图像翻转&#xff0c;分为水平翻转、垂直翻转、水平垂直翻转三种。 通俗的理解为&#xff0c;当以图片的中垂线为x轴和y轴时&#x…

C++从入门到入土(八)——多态的原理

目录 前言 多态的原理 动态绑定与静态绑定 虚函数表 小结 前言 在前面的文章中&#xff0c;我们介绍了C三大特性之一的多态&#xff0c;我们主要介绍了多态的构成条件&#xff0c;但是对于多态的原理我们探讨的是不够深入的&#xff0c;下面这这一篇文章&#xff0c;我们将…

PyCharm安装redis,python安装redis,PyCharm使用失败问题

报错信息 Usage: D:\wb2\wbrj_pys\venv\Scripts\python.exe -m pip install [options] [package-index-options] … D:\wb2\wbrj_pys\venv\Scripts\python.exe -m pip install [options] -r [package-index-options] … D:\wb2\wbrj_pys\venv\Scripts\python.exe -m pip instal…

保姆级离线TiDB V8+解释

以前学习的时候还是3版本&#xff0c;如今已经是8版本了 https://cn.pingcap.com/product-community/?_gl1ujh2l9_gcl_auMTI3MTI3NTM3NC4xNzM5MjU3ODE2_gaMTYwNzE2NTI4OC4xNzMzOTA1MjUz_ga_3JVXJ41175MTc0MTk1NTc1OC4xMS4xLjE3NDE5NTU3NjIuNTYuMC41NDk4MTMxNTM._ga_CPG2VW1Y4…

PyTorch 深度学习实战(17):Asynchronous Advantage Actor-Critic (A3C) 算法与并行训练

在上一篇文章中&#xff0c;我们深入探讨了 Soft Actor-Critic (SAC) 算法及其在平衡探索与利用方面的优势。本文将介绍强化学习领域的重要里程碑——Asynchronous Advantage Actor-Critic (A3C) 算法&#xff0c;并展示如何利用 PyTorch 实现并行化训练来加速学习过程。 一、A…