NoSQL数据库原理与应用综合项目——HBase篇

news2024/9/26 1:22:56

NoSQL数据库原理与应用综合项目——HBase篇

文章目录

  • NoSQL数据库原理与应用综合项目——HBase篇
    • 0、 写在前面
    • 1、本地数据或HDFS数据导入到HBase
    • 2、Hbase数据库表操作
      • 2.1 Java API 连接HBase
      • 2.2 查询数据
      • 2.3 插入数据
      • 2.4 修改数据
      • 2.5 删除数据
    • 3、Windows远程连接HBase
    • 4、数据及源代码
    • 5、总结


在这里插入图片描述


0、 写在前面

  • Windos版本:Windows10
  • Linux版本:Ubuntu Kylin 16.04
  • JDK版本:Java8
  • Hadoop版本:Hadoop-2.7.1
  • HBase版本:HBase-1.1.5
  • Zookeepr版本:使用HBase自带的ZK
  • Redis版本:Redis-3.2.7
  • MongoDB版本:MongoDB-3.2.7
  • Neo4j版本:Neo4j-3.5.12 Community
  • IDE:IDEA 2020.2.3
  • IDE:Pycharm 2021.1.3

1、本地数据或HDFS数据导入到HBase

  • 代码:

创建一张Hbase新表

hbase(main):014:0> create 'tb_books', 'info'
hbase(main):015:0> describe 'tb_books'
Table tb_books is ENABLED
tb_books
COLUMN FAMILIES DESCRIPTION
{NAME => 'info', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_E
NCODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'NONE', MIN_VERSIONS => '0', BLOCKCACHE => 'true', BLOCKSIZE => '6553
6', REPLICATION_SCOPE => '0'}

以JavaAPI方式从HDFS导入预处理后的数据到Hbase新建的表中,代码如下:

此处使用MR的方式将数据批量导入HBase

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil;
import org.apache.hadoop.hbase.mapreduce.TableOutputFormat;
import org.apache.hadoop.hbase.mapreduce.TableReducer;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

public class ImportHBaseFromHDFS {
    private static int writeSize = 0;

    public static void main(String[] args) throws Exception {
        Configuration conf = HBaseConfiguration.create();
//         conf.set("hbase.zookeeper.quorum", "10.125.0.15:2181");

        conf.set(TableOutputFormat.OUTPUT_TABLE, "tb_books");
//        conf.set(TableOutputFormat.OUTPUT_TABLE, "books_tmp");
        Job job = Job.getInstance(conf, ImportHBaseFromHDFS.class.getSimpleName());
        TableMapReduceUtil.addDependencyJars(job);

        job.setJarByClass(ImportHBaseFromHDFS.class);
        job.setMapperClass(HdfsToHBaseMapper.class);
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(Text.class);

        System.out.println("导入数据的id为:");
        job.setReducerClass(HdfsToHBaseReducer.class);

        FileInputFormat.addInputPath(job, new Path("hdfs://10.125.0.15:9000/books_cn/tb_book.txt"));
//        FileInputFormat.addInputPath(job, new Path("hdfs://10.125.0.15:9000/books_cn/test.txt"));
        job.setOutputFormatClass(TableOutputFormat.class);

        job.waitForCompletion(true);
        System.out.println();

        System.out.println("成功往HBase导入" + writeSize + "条数据!");
    }

    public static class HdfsToHBaseMapper extends Mapper<Object, Text, Text, Text> {
        private Text outk = new Text();
        private Text outv = new Text();
        @Override
        protected void map(Object key, Text value, Context context) throws IOException, InterruptedException {
            String[] splits = value.toString().split("\t");
//            System.out.println("id:" + splits[0]);
            outk.set(splits[0]);
            outv.set(splits[1] + "\t" + splits[2] + "\t" + splits[3] + "\t"
                    + splits[4] + "\t" + splits[5] + "\t" + splits[6] + "\t" + splits[7] + "\t"
                    + splits[8] + "\t" + splits[9]);
            context.write(outk, outv);
        }
    }


    public static class HdfsToHBaseReducer extends TableReducer<Text, Text, NullWritable> {
        private boolean[] flag = new boolean[8];

        @Override
        protected void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException {
            Put put = new Put(key.getBytes());  // rowkey
            String idStr = key.toString();
            String columnFamily = "info";

            writeSize++;

            if (idStr != null && !"NULL".equals(idStr)) {
                put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("id"), Bytes.toBytes(idStr));

                if (idStr.startsWith("1")) {
                    System.out.print(idStr + " ");
                } else if (idStr.startsWith("2")) {
                    if (!flag[0]) {
                        System.out.println();
                        flag[0] = true;
                    }
                    System.out.print(idStr + " ");
                } else if (idStr.startsWith("3")) {
                    if (!flag[1]) {
                        System.out.println();
                        flag[1] = true;
                    }
                    System.out.print(idStr + " ");
                } else if (idStr.startsWith("4")) {
                    if (!flag[2]) {
                        System.out.println();
                        flag[2] = true;
                    }
                    System.out.print(idStr + " ");
                } else if (idStr.startsWith("5")) {
                    if (!flag[3]) {
                        System.out.println();
                        flag[3] = true;
                    }
                    System.out.print(idStr + " ");
                } else if (idStr.startsWith("6")) {
                    if (!flag[4]) {
                        System.out.println();
                        flag[4] = true;
                    }
                    System.out.print(idStr + " ");
                } else if (idStr.startsWith("7")) {
                    if (!flag[5]) {
                        System.out.println();
                        flag[5] = true;
                    }
                    System.out.print(idStr + " ");
                } else if (idStr.startsWith("8")) {
                    if (!flag[6]) {
                        System.out.println();
                        flag[6] = true;
                    }
                    System.out.print(idStr + " ");
                } else if (idStr.startsWith("9")) {
                    if (!flag[7]) {
                        System.out.println();
                        flag[7] = true;
                    }
                    System.out.print(idStr + " ");
                } else {
                    System.out.println();
                }
            }

            for (Text value : values) {
                String[] line = value.toString().split("\t");
                // TODO info,对应hbase列族名
                put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("name"), Bytes.toBytes(String.valueOf(line[1])));
                put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("author"), Bytes.toBytes(String.valueOf(line[2])));
                put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("price"), Bytes.toBytes(line[3]));
                put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("discount"), Bytes.toBytes(String.valueOf(line[4])));
                put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("pub_time"), Bytes.toBytes(line[5]));
                put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("pricing"), Bytes.toBytes(line[6]));
                put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("publisher"), Bytes.toBytes(String.valueOf(line[7])));
                put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes("crawler_time"), Bytes.toBytes(line[8]));
                if ("".equals(idStr) || "".equals(line[1]) || "".equals(line[2]) || "".equals(line[3]) ||
                        "".equals(line[4]) || "".equals(line[5]) || "".equals(line[6]) || "".equals(line[7]) ||
                        "".equals(line[8])) {
                    System.out.println("-----------------" + idStr);
                }
            }
            context.write(NullWritable.get(), put);
        }
    }
}
  • 运行成功图示:

在这里插入图片描述

  • 结果图:

在这里插入图片描述

2、Hbase数据库表操作

2.1 Java API 连接HBase

private static Configuration configuration;
private static Connection connection;
private static Admin admin;
private static String tableName = "tb_books";

/**
 * TODO 建立连接
 */
public static void init() {
    configuration = HBaseConfiguration.create();
    configuration.set("hbase.rootdir","hdfs://10.125.0.15:9000/hbase");
//        configuration.set("hbase.rootdir","hdfs://localhost:9000/hbase");
    try {
        connection = ConnectionFactory.createConnection(configuration);
        admin = connection.getAdmin();
    } catch (IOException e) {
        e.printStackTrace();
    }
}

/**
 * TODO 关闭连接
 */
public static void close() {
    try {
        if (admin != null) {
            admin.close();
        }
        if(null != connection) {
            connection.close();
        }
    } catch (IOException e) {
        e.printStackTrace();
    }
}

2.2 查询数据

  • 查询数据条数
/**
 * TODO 统计表的行数
 * @param tableName
 * @throws IOException
 */
public static void countRows(String tableName)throws IOException{
    init();
    Table table = connection.getTable(TableName.valueOf(tableName));
    Scan scan = new Scan();
    ResultScanner scanner = table.getScanner(scan);
    int num = 0;
    for (Result result = scanner.next(); result != null; result = scanner.next()){
        num++;
    }
    System.out.println("行数:"+ num);
    scanner.close();
    close();
}

在这里插入图片描述

  • 扫描全表
/**
 * TODO 扫描全表
 * @param tableName
 * @return
 * @throws Exception
 */
public static ResultScanner getResultScann(String tableName) throws Exception {
    init();
    TableName name = TableName.valueOf(tableName);
    ResultScanner scanner;
    int size = 0;
    if (admin.tableExists(name)) {
        Table table = connection.getTable(name);
        Scan scan = new Scan();
        scanner = table.getScanner(scan);
        for (Result result : scanner) {
            showCell(result);
            size++;
        }
        System.out.println("扫描全表数据大小:" + size + "条!");
    } else {
        scanner = null;
    }
    return scanner;
}

在这里插入图片描述

在这里插入图片描述

  • 根据rowkey查询数据
/**
 * TODO 根据行键查找数据
 * @param tableName
 * @param rowKey
 * @throws IOException
 */
public static void getDataByRowKey(String tableName, String rowKey)throws  IOException{
    init();
    Table table = connection.getTable(TableName.valueOf(tableName));
    Get get = new Get(rowKey.getBytes());
    Result result = table.get(get);
    // keyvalues={rk001/info:id/1669648973007/Put/vlen=5/seqid=0}
    // keyvalues=NONE
//        System.out.println(result.toString());
    if (result != null) {
        showCell(result);
    }
    if (result.toString().contains("NONE")) {
        System.out.println("当前查找的RowKey:" + rowKey + "不存在数据!");
    }
    table.close();
    close();
}

图片

  • 根据rowKey和colFamily查询
/**
 * TODO 根据rowKey和colFamily查询
 * @param tableName
 * @param rowKey
 * @param colFamily
 * @throws IOException
 */
public static void scanColumn(String tableName, String rowKey, String colFamily) throws IOException{
    init();
    Table table = connection.getTable(TableName.valueOf(tableName));
    Scan scan = new Scan();
    scan.addFamily(Bytes.toBytes(colFamily));
    scan.setStartRow(Bytes.toBytes(rowKey));
    scan.setStopRow(Bytes.toBytes(rowKey));
    ResultScanner scanner = table.getScanner(scan);

    for (Result result = scanner.next(); result != null; result = scanner.next()) {
        showCell(result);
    }
    table.close();
    close();
}

图片

  • 查询具体某一列族的某一列的信息
/**
 * TODO 根据具体某一列族的某一列查找数据
 * @param tableName
 * @param rowKey
 * @param colFamily
 * @param col
 * @throws IOException
 */
public static void getData(String tableName, String rowKey, String colFamily, String col)throws IOException {
    init();
    Table table = connection.getTable(TableName.valueOf(tableName));
    Get get = new Get(rowKey.getBytes());
    get.addColumn(Bytes.toBytes(colFamily), Bytes.toBytes(col));
    Result result = table.get(get);
    if (result != null) {
        showCell(result);
    }
    if (result.toString().contains("NONE")) {
        System.out.println("No Return!");
    }
    table.close();
    close();
}

图片

2.3 插入数据

  • 插入具体一列数据
/**
 * TODO 插入具体一列的值
 * @param tableName
 * @param rowKey
 * @param colFamily
 * @param col
 * @param val
 * @throws IOException
 */
public static void insertColumn(String tableName, String rowKey, String colFamily, String col, String val) throws IOException {
    init();
    Table table = connection.getTable(TableName.valueOf(tableName));
    Put data = new Put(rowKey.getBytes());
    data.addColumn(Bytes.toBytes(colFamily), Bytes.toBytes(col), Bytes.toBytes(val));
    table.put(data);
    System.out.println("insert data successfully!");
    table.close();
    close();
}

在这里插入图片描述

在这里插入图片描述

  • 插入一行数据
/**
 * TODO 插入一行数据
 * @param tableName
 * @param row
 * @param fields
 * @param values
 * @throws IOException
 */
public static void addRecord(String tableName, String row, String[] fields, String[] values) throws IOException {
    init();
    Table table = connection.getTable(TableName.valueOf(tableName));
    for (int i = 0; i != fields.length; i++) {
        Put put = new Put(row.getBytes());
        String[] cols = fields[i].split(":");
        put.addColumn(cols[0].getBytes(), cols[1].getBytes(), values[i].getBytes());
        table.put(put);
    }
    System.out.println("add record successfully!");
    table.close();
    close();
}

图片

在这里插入图片描述

2.4 修改数据

  • 修改指定列数据
/**
 * TODO 修改表 tableName,行row,列column指定的单元格的数据。
 * @param tableName
 * @param row
 * @param column
 * @param val
 * @throws IOException
 */
public static void modifyData(String tableName, String row, String column, String val) throws IOException{
    init();
    Table table = connection.getTable(TableName.valueOf(tableName));
    Put put = new Put(row.getBytes());
    String[] cols = column.split(":");

    Scan scan = new Scan();
    scan.addFamily(Bytes.toBytes(cols[0]));
    int size = 0;
    ResultScanner scanner = table.getScanner(scan);
    if (scanner.next() == null) {
        Get get = new Get(row.getBytes());
        Result result = table.get(get);
        if (result == null) {
            System.out.println("当前修改的RowKey:" + row + "不存在!");
        } else {
            System.out.println("您要修改的列不存在!");
        }
    } else {
        if (scanner.next() != null){
            put.addColumn(cols[0].getBytes(), cols[1].getBytes(), val.getBytes());
            table.put(put);
            size++;
        }
        System.out.println("成功修改" + "列为" + column + "共" + size + "条!");
    }
    table.close();
    close();
}

图片

2.5 删除数据

  • 删除一行数据
 /**
   * TODO 删除指定rowKey
   * @param tableName
   * @param rowKey
   * @throws IOException
   */
  public static void deleteRow(String tableName, String rowKey) throws IOException {
      init();
      Table table = connection.getTable(TableName.valueOf(tableName));
      Delete data = new Delete(rowKey.getBytes());
      table.delete(data);
      System.out.println("delete rowKey " + rowKey + "'s" + " data successfully!");
      table.close();
      close();
  }

tp
在这里插入图片描述

  • 删除指定列族的数据
/**
 * TODO 删除colFamily
 * @param tableName
 * @param rowKey
 * @param colFamily
 * @throws IOException
 */
public static void deleteByCF(String tableName, String rowKey, String colFamily) throws IOException {
    init();
    Table table = connection.getTable(TableName.valueOf(tableName));
    Delete data = new Delete(rowKey.getBytes());
    data.addFamily(Bytes.toBytes(colFamily));
    table.delete(data);
    System.out.println("Deleted RowKey:[" +  rowKey +",ColFamily:[" + colFamily + "]]'s " + " data successfully!");
    table.close();
    close();
}

tp
在这里插入图片描述

3、Windows远程连接HBase

HBase的相关配置文件需要提前设置正确,同时在IDEA项目中的resources文件夹下需要加入Hadoop和Hbase的配置文件,包括以下几个:

  • core-site.xml
  • hbase-site.xml
  • hdfs-site.xml

为了控制只输出error信息和结果信息,需要再新增一个log4j.properties

log4j.properties
log4j.rootLogger=stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/nosqldemo.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n

4、数据及源代码

  • Github

  • Gitee

5、总结

将数据导入到HBase的方法有很多种,此处采用MapReduce的方式,将每条数据的id属性作为mapper端的key,其余属性字段作为value输出到reducer端,reducer端调用HBase的addColumn()方法新增每条数据,同时reducer端的value设置为NullWritable

基本的增删改查操作,调用相关的API方法,注意细节,顺利完成并不难。

结束!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/97572.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

springboot常用组件集成

今天与大家分享spring-mybatis、reids集成&#xff0c;druid数据库连接池。如果有问题&#xff0c;望指教。 1. 创建项目 File -> New -> project ...Spring Initializr选择项目需要的第三方组件注&#xff1a;可以参考第二次课演示的操作步骤&#xff0c;有详细的拷图…

java药店网站药店系统药店源码刷脸支付源码

简介 首页&#xff0c;搜索商品&#xff0c;详情页&#xff0c;根据不同规格显示不同的商品价格&#xff0c;加入购物车&#xff0c;立即购买&#xff0c;评价列表展示&#xff0c;商品详情展示&#xff0c;商品评分&#xff0c;分类商品&#xff0c;标签查询&#xff0c;更多…

MapReduce 概述原理说明

文章目录MapReduce概述一、MapReduce定义二、MapReduce 优缺点1、MapReduce 优点(1)、MapReduce 易于编程(2)、良好的扩展性(3)、高容错性(4)、适合PB级以上的海量数据的离线处理2、MapReduce 缺点(1)、不擅长实时计算(2)、不擅长流式计算(3)、不擅长DAG(有向图)计算三、MapRed…

二叉树进阶

博主的博客主页&#xff1a;CSND博客 Gitee主页&#xff1a;博主的Gitee 博主的稀土掘金&#xff1a;稀土掘金主页 博主的b站账号&#xff1a;程序员乐 公众号——《小白技术圈》&#xff0c;回复关键字&#xff1a;学习资料。小白学习的电子书籍都在这。 目录根据二叉树创建字…

基于java+springmvc+mybatis+vue+mysql的协同过滤算法的电影推荐系统

项目介绍 基于协同过滤算法的电影推荐系统利用网络沟通、计算机信息存储管理&#xff0c;有着与传统的方式所无法替代的优点。比如计算检索速度特别快、可靠性特别高、存储容量特别大、保密性特别好、可保存时间特别长、成本特别低等。在工作效率上&#xff0c;能够得到极大地…

Hive自定义UDF函数

以下基于hive 3.1.2版本 Hive中自定义UDF函数&#xff0c;有两种实现方式&#xff0c;一是通过继承org.apache.hadoop.hive.ql.exec.UDF类实现&#xff0c;二是通过继承org.apache.hadoop.hive.ql.udf.generic.GenericUDF类实现。 无论是哪种方式&#xff0c;实现步骤都是&…

网上超市系统

开发工具(eclipse/idea/vscode等)&#xff1a; 数据库(sqlite/mysql/sqlserver等)&#xff1a; 功能模块(请用文字描述&#xff0c;至少200字)&#xff1a; 研究内容&#xff1a;设计开发简单购网上超市系统&#xff0c;采用Java语言&#xff0c;使用ySQL数据库&#xff0c; 实…

毕业设计 单片机家用燃气可视化实时监控报警仪 - 物联网 嵌入式 stm32

文章目录0 前言1 简介2 主要器件3 实现效果4 设计原理4.1 硬件部分4.2 软件部分5 部分核心代码6 最后0 前言 &#x1f525; 这两年开始毕业设计和毕业答辩的要求和难度不断提升&#xff0c;传统的毕设题目缺少创新和亮点&#xff0c;往往达不到毕业答辩的要求&#xff0c;这两…

SAP ABAP 开发管理 代码内存标记 位置使用清单(Mark of memory id)

SAP ABAP 开发管理 代码内存标记 位置使用清单&#xff08;Mark of memory id&#xff09; 引言&#xff1a; 代码内存标记&#xff08;Mark of memory id&#xff09;是我开发中对 ABAP MEMORY ID 使用管理的一种方法&#xff0c;他能有效保障使用了 ABAP MEMORY ID 程序的可…

25岁从运维转向软件开发是选择Python还是Java

25岁的年龄不大&#xff0c;若是有扎实的基础&#xff0c;后期转转向软件开发是个不错的选择&#xff0c;Python是目前最火的编程语言&#xff0c;python作为人工智能的主要编程语言也有着不错的发展前景。 关于编程语言的选择&#xff0c;如果从就业的角度出发应该重点考虑一…

[附源码]Nodejs计算机毕业设计基于框架的校园爱心公益平台的设计与实现Express(程序+LW)

该项目含有源码、文档、程序、数据库、配套开发软件、软件安装教程。欢迎交流 项目运行 环境配置&#xff1a; Node.js Vscode Mysql5.7 HBuilderXNavicat11VueExpress。 项目技术&#xff1a; Express框架 Node.js Vue 等等组成&#xff0c;B/S模式 Vscode管理前后端分…

Mechatrolink III转EtherCAT网关模块解决方案

概述 工业以太网在工业控制领域越来越流行&#xff0c;协议种类较多&#xff0c;例如Mechatrolink III、EtherCAT、Powerlink、Profinet、EtherNet/IP等等&#xff0c;在数控加工领域主流的协议有Mechatrolink III、EtherCAT。但是各种协议之间很难通信协作。 安川电机的Mech…

CPOFDM-16QAM性能仿真,输出接收端的星座图

目录 1.算法描述 2.仿真效果预览 3.MATLAB核心程序 4.完整MATLAB 1.算法描述 CP-OFDM&#xff08;Cyclic Prefix Orthogonal Frequency Division Multiplexing&#xff0c;循环前缀正交频分复用&#xff09;通信系统采用多个正交子载波&#xff08;Orthogonalsub-Carrier&a…

非科班出身零基础能学好编程吗

近几年IT行业越来越火热&#xff0c;有很多人想转行跨界进入这个行业&#xff0c;那么作为初学者的你&#xff0c;是不是也很困惑&#xff0c;0基础非科班出身能学好编程吗&#xff1f; 编程是一个技术活&#xff0c;没有专业知识想进入这个行业是行不通的&#xff0c;这也决定…

Go工程化项目布局

如果你尝试学习Go&#xff0c;或者你正在为自己建立一个Poc或者一个玩具项目&#xff0c;这个项目布局是没有啥必要的&#xff0c;从一些简单的事情开始&#xff08;一个main文件绰绰有余&#xff09;。当有更多的人参与这个项目的时候&#xff0c;你讲需要更多的结构&#xff…

基于springboot超市进销存管理系统(Java毕业设计,包含部署文档)

大家好✌&#xff01;我是CZ淡陌。一名专注以理论为基础实战为主的技术博主&#xff0c;将再这里为大家分享优质的实战项目&#xff0c;本人在Java毕业设计领域有多年的经验&#xff0c;陆续会更新更多优质的Java实战项目&#xff0c;希望你能有所收获&#xff0c;少走一些弯路…

神经网络种类及应用领域,常用的神经网络有哪些

1、神经网络算法的三大类分别是&#xff1f; 神经网络算法的三大类分别是&#xff1a; 1、前馈神经网络&#xff1a; 这是实际应用中最常见的神经网络类型。第一层是输入&#xff0c;最后一层是输出。如果有多个隐藏层&#xff0c;我们称之为“深度”神经网络。他们计算出一…

[附源码]Python计算机毕业设计Django网上鲜花购物系统

项目运行 环境配置&#xff1a; Pychram社区版 python3.7.7 Mysql5.7 HBuilderXlist pipNavicat11Djangonodejs。 项目技术&#xff1a; django python Vue 等等组成&#xff0c;B/S模式 pychram管理等等。 环境需要 1.运行环境&#xff1a;最好是python3.7.7&#xff0c;…

一篇文章带你轻松手撕AVL树的构建

1.AVL树介绍 我们知道一般情况下二叉搜索树的查找效率是很高的&#xff0c;但是遇到极端情况下时间复杂度就会来到O(N) 那么为了消除这种极端情况的影响&#xff0c;我们就需要调节这个二叉树通过一些操作转成一颗二叉平衡树&#xff0c;调节完毕就会得到一颗AVL树。 2.AVL树模…

【Linux】第二部分 保姆级手把手教你如何安装Linux

【Linux】第二部分 保姆级手把手教你如何安装Linux 文章目录【Linux】第二部分 保姆级手把手教你如何安装Linux2.保姆级手把手教你如何安装Linux首先下载vmware接下来下载centOS**接着开启虚拟机,对操作系统进行配置**总结2.保姆级手把手教你如何安装Linux 首先下载vmware vm…