【iOS】iOS语音通话回音消除(AEC)技术实现

news2024/11/16 11:28:38

一、前言

在语音通话、互动直播、语音转文字类应用或者游戏中,需要采集用户的麦克风音频数据,然后将音频数据发送给其它终端或者语音识别服务。如果直接使用采集的麦克风数据,就会存在回音问题。所谓回音就是在语音通话过程中,如果用户开着扬声器,那么自己讲话的声音和对方讲话的声音(即是扬声器的声音)就会混在一起,如果没有消除对方的声音,那么对方听到的就是带有回音的声音,这样的声音就会有问题。因此采集麦克风数据后,必须要消除回音,才能得到良好的用户体验。

回音消除的英文专业术语叫Acoustic Echo Cancellation,简称AEC。如何实现回音消除,技术细节实现上是一个比较复杂的数学问题。一般手机厂商都提供了底层的回音消除技术实现,app只需要调用相关api即可。但是也不是简单的调用,需要对一些基本知识有一定的了解,比如手机上提供的音频框架有哪些、每个音频框架功能是什么、哪些框架是可以实现AEC的、实现AEC的API怎么调用、有什么注意事项等等都是我们需要关注和总结的。本文主要对iOS设备上如何实现回音消除的相关知识进行梳理。

二、iOS音频框架概览

iOS系统提供了五类音频框架,从上层到下层分别是Media Player、AV Foundation、OpenAL 、 Audio Toolbox、AudioUnit,如下图。iOS 中的所有音频技术都建立在音频单元(AudioUnit)之上。AudioUnit是所有音频框架的底层实现,像Media Player、AV Foundation、OpenAL 和 Audio Toolbox都是AudioUnit的包装,它们为特定任务提供专用和简化的 API。
在这里插入图片描述
基础的音频功能,例如录制和播放、音效,使用上层音频框架即可解决。只有当您需要最高要求的控制、性能或灵活性时,或者当您需要只能通过直接使用音频单元才能获得的特定功能(例如AEC)时,才需要使用AudioUnit。

当我们需要实现以下功能之一时,直接使用低层的AudioUnit,而不是通过更高级别的 API:

  • 具有低延迟的同步音频 I/O(输入和输出),例如 VoIP(互联网协议语音)应用程序
  • 响应式播放合成声音,例如音乐类型游戏或合成乐器
  • 使用特定的音频单元功能,例如声学回声消除、混合或音调均衡
  • 一种处理链架构,可让您将音频处理模块组装到灵活的网络中。这是 iOS 中唯一提供此功能的音频 API。

当前游戏中需要使用iOS音频框架来采集麦克风数据,iOS中能提供录音功能的API有AVAudioRecorder、AudioQueue以及AudioUnit。其中AVAudioRecorder只能将麦克风音频录制到文件里,而AudioQueue虽然可以实时获取麦克风音频数据,但是不提供AEC功能。因此必须选择AudioUnit来实现游戏场景中的录制音频同时消除回音。

三、AudioUnit的分类

PerposeAudio Units
Effect(效果器)iPod Equalizer(iPod均衡器)
Mixing(混音器)3D Mixer (3D立体声)
Multichannel Mixer (多通道混音器)
I/O(输入输出)Remote I/O (远端输入输出,连接麦克风和扬声器)
Voice-Processing I/O (同上,增加了回声抑制等特性,适于网络语音处理)
Generic Output (一般输出,输出到应用程序)
Format conversion(格式转换)Format Converter (格式转换器)

(一)、效果器单元

iOS 4 提供了一个效果器,即iPod Equalizer,内置 iPod 应用程序使用的是同一个均衡器。使用此音频单元时,您必须提供自己的UI。此音频单元提供一组预设均衡曲线,例如Bass Booster、Pop 和 Spoken Word。

(二)、混音器单元

iOS 提供了两个混音器单元。一种是3D Mixer(3D混音器) ,另一种是Multichannel Mixer(多通道混音器)。3D混音器单元是构建OpenAL的基础。在大多数情况下,如果您需要3D混音器单元的功能,最好的选择是使用OpenAL,它提供了更高级的 API,非常适合游戏应用程序。多通道混音器单元为任意数量的单声道或立体声流提供混音,并带有立体声输出。您可以打开或关闭每个输入,设置其输入增益,并设置其立体声声相位置。

(三)、输入/输出单元

iOS 提供了三个 I/O 单元,分别是Remote I/O、 Voice-Processing I/O以及Generic Output 。
1、Remote I/O单元是最常用的。它连接到设备的输入和输出音频硬件(例如麦克风和扬声器),让您可以低延迟访问各个输入和传出音频样本值。它提供硬件音频格式和您的应用程序音频格式之间的格式转换,通过包含的格式转换器单元实现。
2、Voice-Processing I/O单元通过添加用于 VoIP 或语音聊天应用的声学回声消除来扩展远程 I/O 单元。它还提供自动增益校正、语音处理质量调整和静音功能。
3、Generic Output单元不连接到音频硬件,而是提供一种将处理链的输出发送到您的应用程序的机制。您通常会使用通用输出单元进行离线音频处理。

(四)、格式转换器单元

iOS 4 提供了一个Format Converter unit,通常通过 I/O 单元间接使用。

AudioUnit由Type、SubType和Manufacturer ID(制造商ID)这三个部分唯一标识。如下表所求。

Name and descriptionIdentifier keysCorresponding four-char codes
Format Converter Unit (支持与线性 PCM 之间的音频格式转换)kAudioUnitType_FormatConverter
kAudioUnitSubType_AUConverter
kAudioUnitManufacturer_Apple
aufc
conv
appl
iPod Equalizer Unit(提供 iPod 均衡器的功能)kAudioUnitType_Effect
kAudioUnitSubType_AUiPodEQ
kAudioUnitManufacturer_Apple
aufx
ipeq
appl
3D Mixer Unit(支持混合多个音频流、输出声像、采样率转换等)kAudioUnitType_Mixer
kAudioUnitSubType_AU3DMixerEmbedded
kAudioUnitManufacturer_Apple
aumx
3dem
appl
Multichannel Mixer Unit(支持将多个音频流混合到一个流中)kAudioUnitType_Mixer
kAudioUnitSubType_MultiChannelMixer
kAudioUnitManufacturer_Apple
aumx
mcm
xappl
Generic Output Unit(支持与线性PCM格式相互转换;可用于启动和停止图形)kAudioUnitType_Output
kAudioUnitSubType_GenericOutput
kAudioUnitManufacturer_Apple
auou
genr
appl
Remote I/O 单元 Unit(连接到设备硬件以进行输入、输出或同步输入和输出)kAudioUnitType_Output
kAudioUnitSubType_RemoteIO
kAudioUnitManufacturer_Apple
auou
rioc
appl
Voice-Processing I/O Unit(具有I/O单元的特性,为双向通信增加了回声抑制)kAudioUnitType_Output
kAudioUnitSubType_VoiceProcessingIO
kAudioUnitManufacturer_Apple
auou
vpio
appl

从以上AudioUnit的分类可以看出,要实现回音消除必须使用Voice-Processing I/O 这个类型的AudioUnit。

四、AudioUnit内部架构

音频单元的各个部分被组织成Scope和Element,如图所示。调用函数来配置AudioUnit时,您必须指定Scope和Element以标识函数的特定目标。
在这里插入图片描述


配置或者控制AudioUnit的函数:

UInt32 busCount = 2;
 
OSStatus result = AudioUnitSetProperty (
    mixerUnit,
    kAudioUnitProperty_ElementCount,   // the property key
    kAudioUnitScope_Input,             // the scope to set the property on
    0,                                 // the element to set the property on
    &busCount,                         // the property value
    sizeof (busCount)
);

Scope是AudioUnit中的编程上下文。尽管名称Global Scope可能另有含义,但这些上下文从不嵌套。
Element是嵌套在音频单元范围内的编程上下文。当一个元素是输入或输出范围的一部分时,它类似于物理音频设备中的信号总线(bus)——因此有时也称为总线。这两个术语——Element和总线(Bus)——在音频单元编程中指的是完全相同的东西。本文档在强调信号流时使用“总线”,在强调音频单元的特定功能方面时使用“元素”,例如 I/O 单元的输入和输出元素。
您通过其零索引整数值指定一个元素(或总线)。如果设置适用于整个范围的属性或参数,请将元素值指定为0。
上图说明了音频单元的一种常见架构,其中输入和输出上的元素数量相同。然而,各种音频单元使用各种架构。例如,混频器单元可能有多个输入元件,但只有一个输出元件。
全局范围的Scope如上图底部所示,适用于整个音频单元,不与任何特定音频流相关联。它只有一个元素,即元素 0。一些属性,例如每个切片的最大帧数 ( kAudioUnitProperty_MaximumFramesPerSlice),仅适用于全局范围。

IO Unit的架构图如下:

在这里插入图片描述


一个IO单元恰好包含两个元素,虽然这两个元素是一个音频单元的一部分,但您的应用程序将它们主要视为独立的实体。例如属性kAudioOutputUnitProperty_EnableIO,您可以根据应用的需要来独立启用或禁用每个元素。
I/O 单元的元素 1 直接连接到设备上的音频输入硬件,在图中用麦克风表示。此硬件连接(在元素 1 的输入范围内)对您来说是不透明的。您对从输入硬件输入的音频数据的第一次访问是在元素 1 的输出范围内。
同样,I/O 单元的元素 0 直接连接设备上的音频输出硬件,如上图中的扬声器所示。您可以将音频传送到元素 0 的输入范围,但其输出范围是不透明的。

使用音频单元时,您经常会听到 I/O 单元的两个元素不是通过编号而是通过名称来描述的:
输入元素为元素1(助记符:“Input”单词中的字母“I”的外观类似于数字1)
输出元素为元素0(助记符:单词“Output”的字母“O”的外观类似于数字0)

五、AudioUnit工作流程

音频单元通常在称为音频处理图的封闭对象的上下文中工作,如图所示。在此示例中,您的应用程序通过一个或多个回调函数将音频发送到图中的第一个音频单元,并对每个音频单元进行单独控制。I/O 单元的输出或任何音频处理图中的最后一个音频单元直接连接到输出硬件。

在这里插入图片描述
(其中EQ即Equalizer Unit(均衡器单元)缩写。)

下图是一个经典的多通道混音器单元(Multichannel Mixer Unit)和Remote IO Unit组件成的音频处理图,用于混合播放两种合成声音。先将声音输送到调音台的两个输入总线。混音器输出进入 I/O 单元的输出元件,然后将声音输出到硬件。

在这里插入图片描述

六、使用AudioUnit实现回音消除

AudioUnit使用大致分为五个步骤:获取AudioUnit实例、设置音频参数(例如采样率、声道数等)、设置采集或输出回调、初始化AudioUnit、启动AudioUnit。
下面以Voice-Processing I/O Unit为例来说明如何实现录音时消除回音。

6.1、获取AudioUnit实例

有的情况下我们可以直接使用某一个AudioUnit即可完成我们的功能,有时候需要多个AudioUnit协同处理音频。
iOS 有一个 API 用于直接处理音频单元,另一个用于操作音频处理图用于多个AudioUnit协作处理音频。
要直接使用音频单元(配置和控制它们),请使用Audio Unit Component Services Reference中描述的功能。
要创建和配置音频处理图(音频单元的处理链),请使用Audio Unit Processing Graph Services Reference中描述的函数。

6.1.1 创建AudioComponentDescription用来标识AudioUnit
//AudioUnit描述
AudioComponentDescription ioUnitDescription;
 
//AudioUnit的主类型
ioUnitDescription.componentType = kAudioUnitType_Output;

//AudioUnit的子类型,支持回音消除
ioUnitDescription.componentSubType = kAudioUnitSubType_VoiceProcessingIO;

//AudioUnit制造商,目前只支持苹果
ioUnitDescription.componentManufacturer = kAudioUnitManufacturer_Apple;

//以下两个字段固定是0
ioUnitDescription.componentFlags = 0;
ioUnitDescription.componentFlagsMask = 0;

以上设置可以唯一标识一个AudioUnit,下面开始获取AU实例。

6.1.2 创建AudioComponent获取AudioUnit实例
//查找AudioComponent
//第一个参数传递NULL,告诉此函数使用系统定义的顺序查找匹配的第一个系统音频单元
AudioComponent foundIoUnitReference = AudioComponentFindNext (NULL,&ioUnitDescription);

//需要实例化的AudioUnit
AudioUnit ioUnitInstance;

//实例化AudioUnit
AudioComponentInstanceNew(foundIoUnitReference,&ioUnitInstance);

AudioComponent 即音频组件,代表一种类型的AudioUnit。它用来实例化一个AudioUnit,一个AudioComponent可以用来实例化多个AudioUnit,类似于面向对象编程中类与对象的关系。

6.1.3 也可以使用音频处理图(AUGraph)获取AudioUnit实例

当需要使用多个AudioUnit协同工作时需要使用AuGraph,只使用一个AudioUnit建议使用上面的方式。

// Declare and instantiate an audio processing graph
AUGraph processingGraph;
NewAUGraph (&processingGraph);
 
// Add an audio unit node to the graph, then instantiate the audio unit
AUNode ioNode;
AUGraphAddNode (
    processingGraph,
    &ioUnitDescription,
    &ioNode
);
AUGraphOpen (processingGraph); // indirectly performs audio unit instantiation
 
// Obtain a reference to the newly-instantiated I/O unit
AudioUnit ioUnit;
AUGraphNodeInfo (
    processingGraph,
    ioNode,
    NULL,
    &ioUnit
);

6.2 设置AudioUnit基本参数

接下来需要设置AudioUnit的基本参数,比如采样率、声道数、采样深度等。

    AudioStreamBasicDescription mAudioFormat;
    mAudioFormat.mSampleRate = 16000;//按照需要设置采样率,越大声音越精细,人声16000足够
    mAudioFormat.mFormatID = kAudioFormatLinearPCM;
    mAudioFormat.mFormatFlags = kAudioFormatFlagIsSignedInteger | kAudioFormatFlagIsPacked;
    mAudioFormat.mReserved = 0;
    mAudioFormat.mChannelsPerFrame = 1;//声道数
    mAudioFormat.mBitsPerChannel = 16;//采样深度
    mAudioFormat.mFramesPerPacket = 1;//每个包有多少帧
    //每帧有多少字节
    mAudioFormat.mBytesPerFrame = (mAudioFormat.mBitsPerChannel / 8) * mAudioFormat.mChannelsPerFrame; // 每帧的bytes数2
    //每个包有多少字节
    mAudioFormat.mBytesPerPacket =  mAudioFormat.mFramesPerPacket*mAudioFormat.mBytesPerFrame;//每个包的字节数2
    
    UInt32 size = sizeof(mAudioFormat);
    
    //CheckError是检查错误码的函数,如果有异常,打印后面的字符串
    CheckError(AudioUnitSetProperty(remoteIOUnit,
                                    kAudioUnitProperty_StreamFormat,
                                    kAudioUnitScope_Output,
                                    1,
                                    &mAudioFormat,
                                    size),
               "kAudioUnitProperty_StreamFormat of bus 1 failed");
    
    
    CheckError(AudioUnitSetProperty(remoteIOUnit,
                                    kAudioUnitProperty_StreamFormat,
                                    kAudioUnitScope_Input,
                                    0,
                                    &mAudioFormat,
                                    size),
               "kAudioUnitProperty_StreamFormat of bus 0 failed");

6.3 设置AudioUnit的回调

6.3.1 定义一个音频输入回调
//定义音频输入回调
OSStatus AudioInputCallback(void *inRefCon,
                            AudioUnitRenderActionFlags *ioActionFlags,
                            const AudioTimeStamp *inTimeStamp,
                            UInt32 inBusNumber,
                            UInt32 inNumberFrames,
                            AudioBufferList *__nullable ioData) {
                            
    AudioUnitRecorder *recorder = (__bridge AudioUnitRecorder *)inRefCon;
    
    AudioBuffer buffer;//创建音频缓冲
  
    UInt32 size = inNumberFrames * recorder->mAudioFormat.mBytesPerFrame;
    buffer.mDataByteSize = size; //定义缓冲大小
    buffer.mNumberChannels = 1; //声道数
    buffer.mData = malloc(size); //申请内存
    
    AudioBufferList bufferList;//创建缓冲数组
    bufferList.mNumberBuffers = 1;//只需要一个音频缓冲
    bufferList.mBuffers[0] = buffer;//给数组元素赋值
    
    OSStatus status = noErr;
    
    //调用AudioUnitRender函数获取麦克风数据,存入上面创建的AudioBufferList中。
    status = AudioUnitRender(recorder->remoteIOUnit, ioActionFlags, inTimeStamp, 1, inNumberFrames, &bufferList);
 
    //有异常则中断
    if (status != noErr) {
        printf("AudioUnitRender %d \n", (int)status);
        return status;
    }
    //这里将麦克风音频放入一个缓存区,提供给阿里云语音识别SDK
    if(recorder.isStarted){
        NSData *frame = [recorder _bufferPCMFrame:&buffer];//缓存PCM音频
        if(frame){
            //缓存满了就把数据交给阿里云SDK
            [recorder _handleVoiceFrame:frame];
        }
    }else{
        NSLog(@"WARN: audio, - recorder is stopped, ignoring the callback data %d bytes",(int)buffer.mDataByteSize);
    }
    //释放内存
    free(buffer.mData);
    return status;
}
6.3.2 给AudioUnit设置输入回调

采集麦克风数据需要设置输入回调:kAudioOutputUnitProperty_SetInputCallback
在回调里获取麦克风音频。当前需要采集麦克风音频,因此使用的是这个回调。

    AURenderCallbackStruct callbackStruct;
    callbackStruct.inputProc = AudioInputCallback;//AudioInputCallback是上面定义的回调函数
    callbackStruct.inputProcRefCon = (__bridge void *)(self);
    OSStatus status = AudioUnitSetProperty(remoteIOUnit, kAudioOutputUnitProperty_SetInputCallback, kAudioUnitScope_Output, 0, &callbackStruct, sizeof(callbackStruct));
    //CheckError是检查错误码的函数,如果有异常,打印后面的字符串
    CheckError(status, "SetInputCallback error");

如果是播放一个音频文件或URL,需要设置渲染回调:kAudioUnitProperty_SetRenderCallback,在回调里提供音频流。

6.4 初始化AudioUnit

 CheckError(AudioUnitInitialize(remoteIOUnit),"AudioUnitInitialize error");

6.5 启动AudioUnit

CheckError(AudioOutputUnitStart(remoteIOUnit),"AudioOutputUnitStart error");

启动这个AudioUnit之后,就可以在回调里获取消除了设备回音的麦克风数据。

七、关于AudioSession(音频会话)

在使用AudioUnit之前,先要正确设置AudioSession,否则AudioUnit无法正常工作。

7.1 AudioSession工作机制

iOS是通过AudioSession来管理应用内、应用之间、设备级别的音频行为。如下图所示。

在这里插入图片描述

在使用系统音频功能之前,需要告诉系统打算如何在您的应用程序中使用音频。AudioSession充当您的应用程序和操作系统之间的中介,进而是底层音频硬件。您可以使用它向操作系统传达应用音频的性质,而无需详细说明特定行为或所需的与音频硬件的交互。将这些细节的管理委托给音频会话可确保对用户的音频体验进行最佳管理。

7.2 AudioSession使用步骤

通过AVAudioSession实例来与应用的AudioSession进行交互。
使用步骤如下:

  1. 配置AudioSessionCategory(音频会话类别)和Mode(模式)以向系统传达您打算如何在您的应用程序中使用音频
  2. 激活您应用的音频会话以将您的类别和模式配置生效
  3. 订阅并响应重要的音频会话通知,例如音频中断和Route更改(外设插拔)
  4. 进行高级音频设备配置,例如设置采样率、I/O 缓冲时间和声道数
    例如,当前场景需要使用播放音频时同时进行录音,因此按照如下方式设置AudioSession。
//获取AudioSession实例
AVAudioSession *audioSession = [AVAudioSession sharedInstance];
     
//设置音频行为是播放和录音同时进行,默认只允许播放。
[audioSession setCategory:AVAudioSessionCategoryPlayAndRecord withOptions:AVAudioSessionCategoryOptionDefaultToSpeaker|AVAudioSessionCategoryOptionAllowBluetooth error:nil];
    
//缓冲时间0.02秒,这个决定了AudionUnit音频回调时的inNumberFrames的大小。
[audioSession setPreferredIOBufferDuration:0.02 error:nil];

//激活音频会话
[audioSession setActive:YES error:nil];
    
//监听耳机变化
[[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(audioRouteChangeListenerCallback:)   name:AVAudioSessionRouteChangeNotification object:audioSession];

录音同时播放时需要使用这个Category:AVAudioSessionCategoryPlayAndRecord,它默认会从听筒输出音频,因此需要添加打开扬声器的option:AVAudioSessionCategoryOptionDefaultToSpeaker,并添加允许中途插入耳机的option:AVAudioSessionCategoryOptionAllowBluetooth

关于AudioSessionCategory的种类及行为特点,可以参考:

AudioSessionCategory的种类及行为特点

八、一些经验及注意事项

  • 录音同时播放音频场景,AudioSession的Category需要设置成:AVAudioSessionCategoryPlayAndRecord。
  • AVAudioSessionCategoryPlayAndRecord,音频默认会从听筒播放,强制开启扬声器需要再添加option:AVAudioSessionCategoryOptionDefaultToSpeaker。
  • AVAudioSessionCategoryOptionDefaultToSpeaker,如果添加了这个开启扬声器的option,戴上蓝牙耳机声音仍然从扬声器输出(有线耳机不影响),需要再添加option:AVAudioSessionCategoryOptionAllowBluetooth。
  • 录音同时播放音频场景下开启AEC,需要先播放再录音,不然声音会从听筒输出,并且AEC不生效。不开AEC时声音正常。
  • 摘下耳机,如果录音和播放没有停止,音频会变成听筒输出,无法再开启扬声器。建议在监听到耳机摘下后,先停止录音,隔一段时间比如2s再打开录音。如果有更好的解决方式欢迎留言。
  • AVAudioSessionCategoryPlayback支持后台播放和锁屏播放音频,另外还需要在Capabilities->Background Modes中勾选“Audio,AirPlay,and Picture in Picture”。
  • 录音同上,如果没有勾选这个,app切到后台会自动停止录音。

参考文献:
https://developer.apple.com/library/archive/documentation/MusicAudio/Conceptual/AudioUnitHostingGuide_iOS/Introduction/Introduction.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/420069.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Minikube安装、运行

1.Minikube是什么 本地的k8s集群,方便开发者学习k8s。 2.安装的前提条件 2个CPU货以上。2G内存或以上。20G磁盘或以上。可以链接互联网。安装docker(官网说或者一个虚拟环境,这个不考虑)。 3.官网地址 minikube start | minik…

docker部署mysql5.7

1、拉取镜像 docker pull mysql:5.72、运行容器 docker run -p 3306:3306 --name my-mysql -v $PWD/conf:/etc/mysql -v $PWD/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORDqazWSX123 -d mysql:5.7-v $PWD/conf:/etc/mysql指令是挂载mysql的配置文件到宿主机 -v $PWD/data:/var…

基于Java+SpringBoot+vue的口腔管家平台设计与实现【源码(完整源码请私聊)+论文+演示视频+包运行成功】

博主介绍:专注于Java技术领域和毕业项目实战 🍅文末获取源码联系🍅 👇🏻 精彩专栏推荐订阅👇🏻 不然下次找不到哟 Java项目精品实战案例(300套) 目录 一、效果演示 二、…

DJ3-4 实时调度

目录 3.4.1 实现实时调度的基本条件 1. 提供必要的信息 2. 系统的处理能力强 3. 采用抢占式调度机制 4. 具有快速切换机制 3.4.2 实时调度算法的分类 1. 非抢占式调度算法 2. 抢占式调度算法 3.4.3 常用的几种实时调度算法 1. 最早截止时间优先 EDF(Ea…

拼多多按关键字搜索商品 API

一、拼多多平台优势: 1、独创拼团模式 拼团拼单是拼多多独创的营销模式,其特点是基于人脉社交的裂变传播,非常具有传播性。 由于本身走低价路线,加上拼单折扣,商品的分享和人群裂变效果非常明显,电商前期…

单向链表和双向链表的实现 (LinkedList)

🎉🎉🎉点进来你就是我的人了 博主主页:🙈🙈🙈戳一戳,欢迎大佬指点!人生格言:当你的才华撑不起你的野心的时候,你就应该静下心来学习! 欢迎志同道合的朋友一起加油喔🦾&am…

Markdown发布静态网页

解析markdown_利用 markdown 生成页面实践_灰色派的博客-CSDN博客 业务需求 1.为什么要用 markdown 来生成页面? 对于展示型网站,例如官网这种场景,会有很多小的页面,运营会根据市场时刻有增删修改类似页面的需求,如…

MapReduce笔记

总计:切片就是对一个文件按逻辑进行切片,默认每128m为一个切片,不是物理切片,每个切片对应着一个mapTask进行处理。而且切片是针对每一个文件进行切片的,即一个文件一个文件切片,不是把所以待处理的文件总量…

游戏运营是什么?运营专员需要具备什么能力?

游戏运营主要是负责公司游戏的运营计划制定,包含通过用户对游戏的反馈和数据分析找出产品所存在的问题,并进行优化。通过各种促销活动、节假日实行游戏付费内容来刺激消费,实现游戏和品牌双赢的打造过程。 游戏运营分很多种:用户…

python获取数据类型

之前将字面量时就将到过 数据是有类型的 python的数据类型还挺多的 而现阶段 我们主要接触了 字符串 浮点数 正整数 对应的类型 都有自己的名称 字符串 string 浮点数 float 正整数 int python提供了一个type语句 用于验证数据类型 我们打开编辑工具 编写代码如下 print(typ…

每日一问-ChapGPT-20230416-中医基础-经络

文章目录每日一问-ChapGPT系列起因每日一问-ChapGPT-20230416-中医基础-经络人体的经络有哪些,有什么规律,怎么记忆问诊的具体细节当日总结每日一问-ChapGPT系列起因 近来看了新闻,看了各种媒体,抖音,官媒&#xff0c…

FPGA与ASIC的区别

先来看张图,本图体现出了集成电路产业链:设计业、制造业、封测业。 关于制造、封装测试我们看两张图稍作了解即可: 数字IC ASIC设计流程及EDA工具: (1)了解数字IC设计:在VLSI时代&#xff…

MySQL数据库之表的增删改查(基础)

目录1 新增(Create)1.1 单行数据 全列插入1.2 多行数据 全列插入2 查询(Retrieve)2.1 全列查询2.2 指定列查询2.3 查询字段为表达式2.4 别名2.5 去重: DISTINCT2.6 排序: ORDER BY2.7 条件查询: WHERE2.8 分页查询: LIMIT3 修改…

基于html+css的图片展示10

准备项目 项目开发工具 Visual Studio Code 1.44.2 版本: 1.44.2 提交: ff915844119ce9485abfe8aa9076ec76b5300ddd 日期: 2020-04-16T16:36:23.138Z Electron: 7.1.11 Chrome: 78.0.3904.130 Node.js: 12.8.1 V8: 7.8.279.23-electron.0 OS: Windows_NT x64 10.0.19044 项目…

10个有趣python模块

一、说明 Python 是一种高级、解释型和通用动态编程语言,侧重于代码的可读性。它在许多组织中使用,因为它支持多种编程范例。它还执行自动内存管理。它是世界上最受欢迎的编程语言之一。这是有很多原因的: 这很容易学习。 它超级多才多艺。 …

腾讯云轻量应用服务器性能如何?测评来了

腾讯云轻量应用服务器性能如何?CPU型号主频、内存、公网带宽和系统盘存储多维对比,轻量应用服务器会不会比云服务器CVM性能差?相对于CVM云服务器轻量服务器更适合轻量级的应用,轻量服务适合中小企或个人开发者用于搭建We网站b应用…

svn 安装 和配置idea

SVN客户端安装 一、SVN客户端安装 1、下载安装包地址:svn下载地址 此安装包是英文版的,还可以下载一个语言包,在同界面的下方 这里可以下载 一个汉化的 语言包(在下载界面向下翻即可) 下载完成之后,就会…

JavaSE异常

文章目录JavaSE异常一、异常的概念二、异常的体系结构三、异常的分类四、异常的处理五、自定义异常类JavaSE异常 一、异常的概念 在Java中,将程序执行过程中发生的不正常行为称为异常 常见逻辑异常: 算数异常 System.out.println(10 / 0); // 执行结…

关于分布式唯一ID的思考-雪花算法及美团Leaf方案详解

引言 首先&#xff0c;我们看一下日常开发中常见的雪花算法工具类&#xff1a; 引入hutool <dependency><groupId>cn.hutool</groupId><artifactId>hutool-all</artifactId><version>5.7.20</version> </dependency>工具类…

推荐10个AI学习、工作用的有趣网站

来源&#xff1a;towardsai 作者&#xff1a;学姐 编辑&#xff1a;学姐 1.VERSE BY VERSE 帮你写诗 https://sites.research.google/versebyverse/ 2.Let’s Enhance 照片放大增强 https://letsenhance.io/ 让扭曲和模糊的照片变得漂亮&#xff0c;用这个网站实现增强&am…