Flinkcdc同步mysql到StarRocks(删除)

news2024/11/24 7:58:55

Flink 使用mysql cdc实时监听mysql并且同步到StarRocks(SR)

问题:我们在使用过程中请注意cdc版本和flink的版本,目前flink 1.15.2还没有很好地cdc兼容版本有能力的可以自己编译,参见目前版本兼容;
SR官方推荐的是Flink sql版本(支持增删改同步,实时同步) 如果不可以修改或者删除,请检查你的flink版本和cdc版本以及sr sink的版本。

以上是flink sql同步,sr官网有教程,以下以Flink DataStream Api编程示例演示基于mysql cdc同步到SR(增删改)

1、pom.xml

注意:这个例子基于flink 1.13,截止目前不推荐1.15*版本,
1、请注意scala版本jar包注释;
2、scope则是当你需要打包交由flink集群托管时需要设置provided

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.txlc</groupId>
    <artifactId>dwh-cdc</artifactId>
    <version>1.0-SNAPSHOT</version>

    <properties>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
        <maven.compiler.source>8</maven.compiler.source>
        <maven.compiler.target>8</maven.compiler.target>
        <flink.version>1.13.6</flink.version>
    </properties>

    <dependencies>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-java</artifactId>
            <version>${flink.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-api-java</artifactId>
            <version>${flink.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-base</artifactId>
            <version>${flink.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-api-scala-bridge_2.12</artifactId>
            <version>${flink.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-planner_2.12</artifactId>
            <version>${flink.version}</version>
            <!--            <scope>test</scope>-->
        </dependency>


        <!-- https://mvnrepository.com/artifact/org.apache.flink/flink-streaming-java
            1.15版本以上 flink-streaming-java
            以下需要加上scala版本_2.12
        -->
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-java_2.12</artifactId>
            <version>${flink.version}</version>
<!--                        <scope>provided</scope>-->
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-clients_2.12</artifactId>
            <version>${flink.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-jdbc_2.12</artifactId>
            <version>${flink.version}</version>
            <!--                        <scope>provided</scope>-->
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-api-java-bridge_2.12</artifactId>
            <version>${flink.version}</version>
            <!--                        <scope>provided</scope>-->
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-runtime-web_2.12</artifactId>
            <version>${flink.version}</version>
            <!--                        <scope>test</scope>-->
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-test-utils_2.12</artifactId>
            <version>${flink.version}</version>
            <!--            <scope>test</scope>-->
        </dependency>

        <!--&lt;!&ndash;1.14*&ndash;&gt;
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-runtime_2.12</artifactId>
            <version>${flink.version}</version>
            &lt;!&ndash;                        <scope>provided</scope>&ndash;&gt;
        </dependency>

        &lt;!&ndash;1.15*&ndash;&gt;
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-planner-loader_2.12</artifactId>
            <version>${flink.version}</version>
            &lt;!&ndash;                        <scope>provided</scope>&ndash;&gt;
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-table-test-utils_2.12</artifactId>
            <version>${flink.version}</version>
            &lt;!&ndash;            <scope>test</scope>&ndash;&gt;
        </dependency>-->


        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-shaded-guava</artifactId>
<!--            <version>30.1.1-jre-15.0</version>-->
            <version>18.0-13.0</version>
<!--            <version>30.1.1-jre-14.0</version>-->
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-jdbc_2.12</artifactId>
            <version>1.10.3</version>
            <!--                        <scope>provided</scope>-->
        </dependency>
        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <version>8.0.21</version>
<!--            <version>5.1.49</version>-->
        </dependency>
        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-api</artifactId>
            <version>2.0.4</version>
        </dependency>
        <dependency>
            <groupId>ch.qos.logback</groupId>
            <artifactId>logback-classic</artifactId>
            <version>1.3.4</version>
<!--                        <scope>test</scope>-->
        </dependency>
        <dependency>
            <groupId>org.projectlombok</groupId>
            <artifactId>lombok</artifactId>
            <version>1.18.24</version>
            <!--                        <scope>provided</scope>-->
        </dependency>
        <dependency>
            <groupId>com.alibaba.fastjson2</groupId>
            <artifactId>fastjson2</artifactId>
            <version>2.0.20.graal</version>
        </dependency>
        <dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>connect-api</artifactId>
            <version>2.7.1</version>
        </dependency>


        <dependency>
            <groupId>com.ververica</groupId>
            <artifactId>flink-connector-mysql-cdc</artifactId>
            <version>2.2.0</version>
            <!--            <scope>provided</scope>-->
        </dependency>

        <!-- 1.30flink SR官方推荐的 -->
        <dependency>
            <groupId>com.alibaba.ververica</groupId>
            <artifactId>flink-connector-mysql-cdc</artifactId>
            <version>1.4.0</version>
        </dependency>


        <dependency>
            <groupId>com.starrocks</groupId>
            <artifactId>flink-connector-starrocks</artifactId>
<!--            <version>1.2.4_flink-1.15</version>-->
<!--            <version>1.2.4_flink-1.13_2.12</version>-->
            <version>1.2.3_flink-1.13_2.11</version>
        </dependency>


    </dependencies>

    <build>
        <plugins>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-compiler-plugin</artifactId>
                <version>3.8.0</version>
                <configuration>
                    <source>1.8</source>
                    <target>1.8</target>
                </configuration>
            </plugin>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-eclipse-plugin</artifactId>
                <version>2.10</version>
            </plugin>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-shade-plugin</artifactId>
                <version>3.4.1</version>
                <executions>
                    <execution>
                        <phase>package</phase>
                        <goals>
                            <goal>shade</goal>
                        </goals>
                        <configuration>
                            <transformers>
                                <!-- The service transformer is needed to merge META-INF/services files -->
                                <transformer implementation="org.apache.maven.plugins.shade.resource.ServicesResourceTransformer"/>
                                <transformer implementation="org.apache.maven.plugins.shade.resource.ApacheNoticeResourceTransformer">
                                    <projectName>Apache Flink</projectName>
                                    <encoding>UTF-8</encoding>
                                </transformer>
                            </transformers>
                        </configuration>
                    </execution>
                </executions>
            </plugin>
            <!--<plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-assembly-plugin</artifactId>
                <version>3.0.0</version>
                <configuration>
                    <descriptorRefs>
                        <descriptorRef>jar-with-dependencies</descriptorRef>
                    </descriptorRefs>
                </configuration>
                <executions>
                    <execution>
                        <id>make-assembly</id>
                        <phase>package</phase>
                        <goals>
                            <goal>single</goal>
                        </goals>
                    </execution>
                </executions>
            </plugin>-->

        </plugins>
    </build>

</project>

2、需要自定义序列化格式(删除的关键点)

注意:
1、mysql cdc同步过来的格式并不能直接由SR sink处理,需要拿出来before或者after中的json数据,并且如果你想要更新或者删除需要增加__op字段.
2、这里同步有个小问题即日期需要自己处理才可以完美同步到SR.

package *;

import com.alibaba.fastjson2.JSONObject;
import com.ververica.cdc.debezium.DebeziumDeserializationSchema;
import io.debezium.data.Envelope;
import org.apache.flink.api.common.typeinfo.BasicTypeInfo;
import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.util.Collector;
import org.apache.kafka.connect.data.Field;
import org.apache.kafka.connect.data.Struct;
import org.apache.kafka.connect.source.SourceRecord;

import java.text.SimpleDateFormat;
import java.util.Objects;

/**
 * 自定义反序列化
 *
 * @author JGMa
 */
public class TxlcCustomerSchema implements DebeziumDeserializationSchema<String> {
    @Override
    public void deserialize(SourceRecord sourceRecord, Collector<String> collector) throws Exception {
        String topic = sourceRecord.topic();
        String[] strings = topic.split("\\.");
//        String database = strings[1];
//        String table = strings[2];

        SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");

        Struct value = (Struct) sourceRecord.value();
//        JSONObject data = new JSONObject();
        Struct before = value.getStruct("before");
        JSONObject beforeData = new JSONObject();
        if (before != null) {
            for (Field field : before.schema().fields()) {
                Object o = before.get(field);
                    beforeData.put(field.name(), o);
            }
        }
        Struct after = value.getStruct("after");
        JSONObject afterData = new JSONObject();
        if (after != null) {
            for (Field field : after.schema().fields()) {
                Object o = after.get(field);
                afterData.put(field.name(), o);
            }
        }

        Envelope.Operation op = Envelope.operationFor(sourceRecord);

        System.out.println("->" + value.toString());
        System.out.println("===" + beforeData.toJSONString());
        System.out.println(">>>" + afterData.toJSONString());

//        JSONObject object = new JSONObject();
//        object.put("database", database);
//        object.put("table", table);
        if (Objects.equals(op, Envelope.Operation.DELETE)) {
            // starrocks表需要使用主键模型,另外json中需要有{"__op":1}表示删除,{"__op":0}表示upsert
            beforeData.put("__op", 1);
            collector.collect(beforeData.toJSONString());
        } else if (Objects.equals(op, Envelope.Operation.UPDATE)) {
            afterData.put("__op", 0);
        }
        collector.collect(afterData.toJSONString());

    }

    @Override
    public TypeInformation<String> getProducedType() {
        return BasicTypeInfo.STRING_TYPE_INFO;
    }

}

3、编写source & sink

package *;

import com.starrocks.connector.flink.StarRocksSink;
import com.starrocks.connector.flink.table.sink.StarRocksSinkOptions;
import com.txlc.cdc.execute.core.TxlcCustomerSchema;
import com.ververica.cdc.connectors.mysql.source.MySqlSource;
import org.apache.flink.api.common.RuntimeExecutionMode;
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.java.utils.ParameterTool;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;

/**
 * 全量监听mysql同步到starrocks
 * Print MySQL Snapshot + Binlog
 * <p>
 * warning:sr表字段容量要足够,否则会插入NULL
 *
 * @author JGMa
 */
public class FlinkMysqlCDCStarrocks {

    private static final Logger log = LoggerFactory.getLogger(FlinkMysqlCDCStarrocks.class);

    public static void main(String[] args) throws Exception {

        ParameterTool paramTool = ParameterTool.fromArgs(args);
//        String tableName = paramTool.get("table");
//        String srcHost = paramTool.get("srcHost");
//        String srcDatabase = paramTool.get("srcDatabase");
//        String srcUsername = paramTool.get("srcUsername");
//        String srcPassword = paramTool.get("srcPassword");

        String tableName = "temp_flink";
        String srcHost = "192.168.10.14";
        String srcDatabase ="xcode";
        String srcUsername ="root";
        String srcPassword ="123456";

        //1.创建执行环境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        //2.flinkcdc 做断点续传,需要将flinkcdc读取binlog的位置信息以状态方式保存在checkpoint中即可.

        //(1)开启checkpoint 每隔5s 执行一次ck 指定ck的一致性语义
//        env.enableCheckpointing(5000);
//        CheckpointConfig checkpointConfig = env.getCheckpointConfig();
//
//        checkpointConfig.setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE);
//
//        //3.设置任务关闭后,保存最后后一次cp数据.
//        checkpointConfig.enableExternalizedCheckpoints(CheckpointConfig.ExternalizedCheckpointCleanup.DELETE_ON_CANCELLATION);
//
//        env.setRestartStrategy(RestartStrategies.fixedDelayRestart(3, 2000L));
//        // 设置checkpoint的超时时间 即一次checkpoint必须在该时间内完成 不然就丢弃
//
//        checkpointConfig.setCheckpointTimeout(600000);
//        // 设置两次checkpoint之间的最小时间间隔
//        checkpointConfig.setMinPauseBetweenCheckpoints(500);
//        // 设置并发checkpoint的数目
//        checkpointConfig.setMaxConcurrentCheckpoints(1);

        // 有界数据流,则会采用批方式进行数据处理
        env.setRuntimeMode(RuntimeExecutionMode.STREAMING);
        // 开启checkpoints的外部持久化 这里设置了 清除job时保留checkpoint
        // 目前代码不能设置保留的checkpoint个数 默认值时保留一个 假如要保留3个
        // 可以在flink-conf.yaml中配置 state.checkpoints.num-retained: 3
//        env.setStateBackend();

        //5.创建Sources数据源
        MySqlSource<String> mySqlSource = MySqlSource.<String>builder()
                .hostname(srcHost)
                .port(3306)
                .databaseList(srcDatabase)
                .tableList(srcDatabase + "." + tableName)
                .username(srcUsername)
                .password(srcPassword)
                // converts SourceRecord to JSON String
                .deserializer(new TxlcCustomerSchema())
                .build();

        //6.添加数据源
        DataStreamSource<String> streamSource = env.fromSource(mySqlSource, WatermarkStrategy.noWatermarks(), "[MySQL Source]")
                .setParallelism(1);

        streamSource.addSink(StarRocksSink.sink(
                StarRocksSinkOptions.builder()
                        .withProperty("connector", "starrocks")
                        .withProperty("jdbc-url", "jdbc:mysql://192.168.10.245:9030?characterEncoding=utf-8&useSSL=false")
                        .withProperty("load-url", "192.168.10.11:8030")
                        .withProperty("username", "root")
                        .withProperty("password", "123456")
                        .withProperty("table-name", tableName)
                        .withProperty("database-name", "data_center")
                        .withProperty("sink.buffer-flush.interval-ms", "10000")
                        .withProperty("sink.properties.format", "json")
                        .withProperty("sink.properties.strip_outer_array", "true")
//                        .withProperty("sink.properties.column_separator", "\\x01")
//                        .withProperty("sink.properties.row_delimiter", "\\x02")
                        .withProperty("sink.parallelism", "1")
                        .build()
        )).name(">>>StarRocks Sink<<<");

        env.execute("mysql sync StarRocks 表:" + tableName);

    }

}

最后:保证mysql和sr中已经建立了表就可以完成一比一同步;

如果解决了你的问题在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/91001.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

分布式光伏发电计及气象因子及出力预测方法研究(Matlab代码实现)

&#x1f4a5;&#x1f4a5;&#x1f49e;&#x1f49e;欢迎来到本博客❤️❤️&#x1f4a5;&#x1f4a5; &#x1f3c6;博主优势&#xff1a;&#x1f31e;&#x1f31e;&#x1f31e;博客内容尽量做到思维缜密&#xff0c;逻辑清晰&#xff0c;为了方便读者。 ⛳️座右铭&a…

【WebGL-iTwin.js】理论篇(一):webgl中三维模型表示方式-多边形网格

一、三维模型表示方式 在计算机图形学中&#xff0c;三维模型一般是指空间中物理实体对象的数学表示。具体说来&#xff0c;三维模型是由其形状和颜色外观的描述构成。通常&#xff0c;三维对象的表示方法可以分为面表示和体表示两种类型。 面表示&#xff1a; 也就是表示三维…

C++ Reference: Standard C++ Library reference: Containers: map: map: size

C官网参考链接&#xff1a;https://cplusplus.com/reference/map/map/size/ 公有成员函数 <map> std::map::size C98 size_type size() const; C11 size_type size() const noexcept;返回容器大小 返回map容器中的元素数量。 形参 没有形参。 返回值 容器中元素的数…

java计算机毕业设计基于安卓Android的订餐系统APP

项目介绍 首先,论文一开始便是清楚的论述了系统的研究内容。其次,剖析系统需求分析,弄明白“做什么”,分析包括业务分析和业务流程的分析以及用例分析,更进一步明确系统的需求。然后在明白了系统的需求基础上需要进一步地设计系统,主要包罗软件架构模式、整体功能模块、数据库设…

[附源码]Node.js计算机毕业设计高校教材管理系统Express

项目运行 环境配置&#xff1a; Node.js最新版 Vscode Mysql5.7 HBuilderXNavicat11Vue。 项目技术&#xff1a; Express框架 Node.js Vue 等等组成&#xff0c;B/S模式 Vscode管理前后端分离等等。 环境需要 1.运行环境&#xff1a;最好是Nodejs最新版&#xff0c;我…

docker kali 安装 xfce4 桌面 + tigervnc + novnc

docker kali 安装 xfce4 桌面 tigervnc novnc启动容器环境变量准备工作安装xfce4 桌面tigervnc安装 tigervnc启动 tigervncnovncxfce4 启动弹窗如何关闭&#xff1f;参考启动容器 docker run --name kali -p 5901:5901 -p 6080:6080 -i -t kalilinux/kali-rolling环境变量 …

系列案例解读丨神策新一代流程画布再发力,加速易宠科技精准营销升级

在宠物行业需求端、供给端以及资本的共同推动下&#xff0c;中国宠物经济产业规模增长迅速。与此同时&#xff0c;数字化浪潮全面掀起&#xff0c;借助数字化工具和手段实现企业经营创新&#xff0c;已经成为宠物企业的增长新机会。E 宠商城上线于 2009 年&#xff0c;是易宠科…

推荐几款Nodejs实现的web框架

本文首发于个人博客“胖蔡叨叨叨”&#xff0c;点击可查看原文 Nodejs在近些年可以说是发展异常的迅猛&#xff0c;由于同样使用的js原因&#xff0c;对于前端开发人员可以说是非常的友善了&#xff0c;Github上有关nodejs的贡献也是越来越多&#xff0c;像是阿里的express、ko…

Qt扫盲-QBoxLayout 理论总结

QBoxLayout 理论总结1. 简述2. 创建布局器3. 添加布局元素4. 间隔设置5. 布局 操作1. 简述 QBoxLayout 占用来自其父布局或 parentWidget&#xff08;&#xff09;获得的空间&#xff0c;将其划分为一排框&#xff0c;并使在布局器里的控件填充一个框。 如果 QBoxLayout 的方…

AC耦合电容仿真知多少

AC耦合电容&#xff0c;也叫DC blocking隔直电容&#xff0c;在几乎所有的高速串行链路中&#xff0c;都可以看到它的身影&#xff0c;它的主要作用是去掉信号中的直流偏置分量&#xff0c;同时让高频分量可以顺利通过&#xff0c;类似于一个高宽带的滤波器。 由于电容的焊盘通…

进销存软件哪个简单好用?来看看这5款

小企业进销存软件如何选择&#xff1f;我认为最重要的一点是适合。 市面上优秀的进销存软件很多&#xff0c;但质量参差不齐。同时&#xff0c;由于与企业的匹配度不一样&#xff0c;再高质量的软件&#xff0c;用起来可能也会十分费劲。 下面与大家分享进销存软件的选型要点…

【能效分析】某大厦电力运维系统的设计及应用

项目简介 安科瑞 李亚俊 壹捌柒贰壹零玖捌柒伍柒 某公司位于北京市大兴区&#xff0c;于2001年在大兴分局注册成立&#xff0c;该在公司多年的发展里&#xff0c;始终为终端客户提供好的产品和技术支持、健全的售后服务&#xff0c;该公司主要经营110KV及以下送电线路&#x…

美团阿里Java程序员晒工资被围观,总结:搞好千万级并发=实现百万年薪?

当我听到这句话的时候楞住了&#xff0c; 面试官就用一句话就问倒了我。 实际上&#xff0c;如果不在BAT这样的大厂工作&#xff0c;是很难接触到千万级别的高并发的。 但也正是这种难得&#xff0c;让各个大厂都抢着要这样的人才啊&#xff01; #####小编经过长时间的研究、…

人工神经网络技术及应用,人工神经网络实际应用

1、什么是神经网络&#xff0c;举例说明神经网络的应用 我想这可能是你想要的神经网络吧&#xff01; 什么是神经网络&#xff1a; 人工神经网络&#xff08;Artificial Neural Networks&#xff0c;简写为ANNs&#xff09;也简称为神经网络&#xff08;NNs&#xff09;或称作…

Linux 自定义 RPM 包

目录 一、定制 rpm 包概述 1.1 什么是定制 rpm 包 1.2 为什么要定制 rpm 包 1.3 如何定制 rpm 包 二、安装 FPM 工具 2.1 我在安装过程出现如下错误&#xff1a;ERROR: Error installing fpm:childprocess requires Ruby version > 2.4.0. 2.2 解决办法 2.3 再次执…

SuperMap GIS的TIN地形数据优化

目录 一、优化背景 二、数据优化 2.1 去除无效值 2.1.1 栅格数据 2.1.2 瓦片数据 2.2 镶嵌数据集 2.3 生成优化 2.3.1 块存储瓦片 2.3.2 高精度 2.4 创建空间索引 一、优化背景 TIN指不规则三角网&#xff0c;是针对连续三维空间的不规则划分&#xff0c;其最小单元为不规则三角…

[附源码]Python计算机毕业设计高校课程思政案例库系统Django(程序+LW)

该项目含有源码、文档、程序、数据库、配套开发软件、软件安装教程 项目运行 环境配置&#xff1a; Pychram社区版 python3.7.7 Mysql5.7 HBuilderXlist pipNavicat11Djangonodejs。 项目技术&#xff1a; django python Vue 等等组成&#xff0c;B/S模式 pychram管理等…

【Vue路由】多级路由、路由传参、命名路由、params使用

文章目录多级路由案例实验总结路由传参案例实验总结命名路由路由的params参数多级路由 案例实验 我们尝试做出如下的效果&#xff1a; 首先项目结构&#xff1a; 我们直接看四个路由组件&#xff1a; About.vue <template><h2>我是About的内容</h2> </…

Android 音视频采集那些事

音视频采集 在整个音视频处理的过程中&#xff0c;位于发送端的音视频采集工作无疑是整个音视频链路的开始。在 Android 或者 IOS 上都有相关的硬件设备——Camera 和麦克风作为输入源。本章我们来分析如何在 Android 上通过 Camera 以及录音设备采集数据。 Camera 在 Andro…

web网页设计期末课程大作业:家乡旅游主题网站设计——河北8页HTML+CSS+JavaScript

家乡旅游景点网页作业制作 网页代码运用了DIV盒子的使用方法&#xff0c;如盒子的嵌套、浮动、margin、border、background等属性的使用&#xff0c;外部大盒子设定居中&#xff0c;内部左中右布局&#xff0c;下方横向浮动排列&#xff0c;大学学习的前端知识点和布局方式都有…