superset 二开增加 flink 数据源连接通过flink sql 查询数据

news2024/9/22 23:17:39

前言

superset 目前还不支持 flink 的数据源连接,目前我们公司在探索使用数据湖那一套东西:

  • 使用 flink 作为计算引擎
  • 使用 paimon + oss对象存储对接 flink 作为底层存储
  • 使用 superset 通过 flink gateway 查询 paimon 数据形成报表

增加flink数据源

界面配置

image.png
我们通过添加其他数据源连接来增加 flink 的数据源连接。
image.png
在填写 SQL_ALCHEMY_URI 的时候这里的 driver需要注意,后边在二开代码的时候,需要根据这个 driver 识别到不同的 engine。
我们是通过 flink gateway 提供的 HTTP 接口来进行 flink sql 查询的,所以这里的 host, port 就是 flink gateway 的地址。
在添加连接的时候必须指定 catalog,不然在 superset 的 sqllab 左下侧就没法显示对应的 databases 和 tables。
如果我们的连接需要一些额外参数,可以通过右侧的进阶添加一些额外的参数,在业务代码里使用:
image.png
我这里就指定了该连接使用的 catalog, 以及每次执行 sqllab 查询的时候初始化的一些命令。

代码开发

定义 flink.py 文件

我们需要在 superset/superset/db_engine_specs目录下新增一个 flink.py文件包含三个类:

  • FlinkClient: 用于和 flink gateway 交互执行 flink sql。
  • FlinkEngine: 模拟 mysql 的 cursor, 在一个 cursor 实例的生命周期内,就是和 flink gateway 的session 生命周期,当cursor 结束时,就是断开 session 的时候。
  • FlinkEngineSpec: 继承 superset 自身的 BaseEngineSpect, superset 的业务代码需要通过该类执行 sql 和查询结果。

FlinkClient

import logging
from typing import Any, Dict, Optional, Tuple, List, Union, Set
import time
import re

import requests
import sqlparse
from sqlalchemy import types, select
from sqlalchemy.orm import Session
from sqlalchemy.sql import text
from sqlalchemy.engine import  Engine

from superset.models.core import Database
from superset.config import FLINK_HOST
from superset.db_engine_specs.base import BaseEngineSpec
from superset.models.sql_lab import Query

logger = logging.getLogger(__name__)


class FlinkClient:
    result_type = {
        "NOT_READY": "NOT_READY",   # 表明 sql 还在执行中
        "PAYLOAD": "PAYLOAD",   # 表明 sql 已经在 flink 集群上执行了,需要 client 循环获取结果
        "EOS": "EOS"            # 表明已经获取到 sql 执行结果了,可以退出循环
    }

    result_kind = {
        "SUCCESS_WITH_CONTENT": "SUCCESS_WITH_CONTENT",     # 执行的是查询结果的 sql
        "SUCCESS": "SUCCESS"                                # 执行的是命令
    }

    def __init__(self, **kwargs):
        self.session_id = None
        self.operation_ids = []

        # 添加连接时在额外参数中填写的初始化命令
        # 在执行 sql 前会先执行话初始化命令
        self.init_commands = kwargs.get("init_commands", [])

        # FLINK_HOST 就是 flink gateway 的地址,我是从环境变量中获取的
        self.get_session_url = FLINK_HOST + "/v1/sessions", "POST"
        self.execute_statement_url = FLINK_HOST + "/v1/sessions/{SESSION_ID}/statements/", "POST"
        self.fetch_result_url = FLINK_HOST + "/v1/sessions/{SESSION_ID}/operations/{OPERATION_ID}/result/{BATCH_NUM}", "GET"

        self.kwargs = kwargs

    def __enter__(self):
        # 使用上下文模式,调用的时候获取 session 和执行初始化命令
        self.get_session()
        for c in self.init_commands:
            operation_id = self.execute(c)
            self.fetch_result(operation_id=operation_id)
        return self

    def __exit__(self, exc_type, exc_value, traceback):
        if exc_type is not None:
            logger.error(f"flink gateway got error: {exc_type}, {exc_value}")
        return False

    def handle_request(self,
                       url: str,
                       method: str,
                       form_data: Dict[str, Any] = None,
                       json_data: Dict[str, Any] = None,
                       params: Dict[str, Any] = None,
                       headers: Dict[str, Any] = None,
                       timeout: Tuple[int, ...] = (10, 60)) -> Dict[str, Any]:
        try:
            kwargs = {
                "timeout": timeout,
                "headers": {"Content-Type": "application/json"}
            }
            if form_data:
                kwargs["data"] = form_data
            if params:
                kwargs["params"] = params
            if json_data:
                kwargs["json"] = json_data
            if headers:
                kwargs["headers"].update(headers)

            # logger.info(f"request to flink gateway url: {url}")
            # logger.info(f"request to flink gateway kwargs: {kwargs}")

            if method == 'GET':
                response = requests.get(url, **kwargs)
            elif method == 'POST':
                response = requests.post(url, **kwargs)
            elif method == 'PUT':
                response = requests.put(url, **kwargs)
            elif method == 'DELETE':
                response = requests.delete(url, **kwargs)
            else:
                raise ValueError("Unsupported HTTP method")

            response.raise_for_status()

            res = {
                'status_code': response.status_code,
                'headers': dict(response.headers),
                'data': response.json()
            }
            # logger.info(f"flink gateway response: {res}")

            return res
        except Exception as e:
            logger.error(f"flink gateway res error: {str(e)}")
            raise e

    def get_session(self):
        res = self.handle_request(self.get_session_url[0], self.get_session_url[1])
        self.session_id = res['data'].get('sessionHandle')

    def ping(self):
        operation_id = self.execute("select 1")
        return True if self.fetch_result(operation_id=operation_id) else False

    def execute(self, statement: str):
        # 执行 flink sql
        data = {"statement": statement}
        res = self.handle_request(
            self.execute_statement_url[0].format(SESSION_ID=self.session_id),
            self.execute_statement_url[1],
            json_data=data)
        self.operation_ids.append(res['data'].get('operationHandle'))
        return res['data'].get('operationHandle')

    def fetch_result(self, batch_num: int = 0, operation_id: str =None) -> Dict[str, Any]:
        """
        通过 flink gateway 获取执行结果:gateway 将 sql 提交至集群后返回 PAYLOAD 状态表示提交成功,
            否则返回 NOT_READY 状态。
        当提交至集群成功后,如果执行的 sql 是查询内容的,需要通过 batch_num(nextResultUri) 不断循环请求执行结果,
        直到 gateway 返回 EOS 状态,表示集群执行完毕,获取结果完毕。
        """
        url = self.fetch_result_url[0].format(SESSION_ID=self.session_id,
                                              OPERATION_ID=operation_id,
                                              BATCH_NUM=batch_num)
        res_data = []
        res = self.handle_request(url, self.fetch_result_url[1])
        #  后续考虑是否做成从环境变量中获取超时时间,且超时后是否考虑杀死集群上执行的任务
        timeout = 300  # flink gateway 提交任务至 session 集群超时时间
        while timeout and res['data']['resultType'] == self.result_type['NOT_READY']:
            time.sleep(1)
            timeout -= 1
            res = self.handle_request(url, self.fetch_result_url[1])

        # 等待集群执行完毕,获取结果
        if res['data']['resultKind'] == self.result_kind['SUCCESS_WITH_CONTENT']:
            timeout = 3600  # flink gateway 从集群获取结果超时时间
            while timeout and res['data']['resultType'] != self.result_type['EOS']:
                time.sleep(3)
                timeout -= 1
                res_data.extend(res['data']['results']['data'])
                logger.info(f"jobID: {res['data'].get('jobID')} waiting for result")
                next_result_url = FLINK_HOST + res['data']['nextResultUri']
                res = self.handle_request(next_result_url, self.fetch_result_url[1])
            res['data']['results']['data'] = res_data
        return res['data']['results']

    def get_schema_names(self, catalog: str) -> List[str]:
        operation_id = self.execute(f"use catalog {catalog}")
        self.fetch_result(operation_id=operation_id)
        operation_id = self.execute(f"show databases")
        res = self.fetch_result(operation_id=operation_id)
        return [i['fields'][0] for i in res['data']]

    def get_table_names(self, catalog: str, schema: str) -> List[str]:
        operation_id = self.execute(f"use catalog {catalog}")
        self.fetch_result(operation_id=operation_id)
        operation_id = self.execute(f"use {schema}")
        self.fetch_result(operation_id=operation_id)
        operation_id = self.execute("show tables")
        res = self.fetch_result(operation_id=operation_id)
        return [i['fields'][0] for i in res['data']]

    def get_columns(self, catalog: str, schema: str, table_name: str) -> List[str]:
        operation_id = self.execute(f"use catalog {catalog}")
        self.fetch_result(operation_id=operation_id)
        operation_id = self.execute(f"use {schema}")
        self.fetch_result(operation_id=operation_id)
        operation_id = self.execute(f"desc {table_name}")
        res = self.fetch_result(operation_id=operation_id)
        return [i['fields'] for i in res['data']]

这里与 flink gateway 交互获取结果有个需要注意的地方就是,我们将执行 sql 提交至 flink gateway 后, gateway resultType 会很快返回 PAYLOAD状态,这个时候不代表 sql 执行完了,代表的是集群在执行中了,我们可以阻塞获取执行结果了,然后我们在阻塞获取结果,当状态变为 EOS的时候,代表我们获取到了结果了,这个时候可以退出阻塞了。
官方的流程图说明如下:
image.png
这里需要了解下我们的客户端通过 HTTP 接口与 gateway 交互的流程,不熟悉的可以先通过官方文档了解下:
https://nightlies.apache.org/flink/flink-docs-master/zh/docs/dev/table/sql-gateway/overview/

FlinkEngine
FlinkEngine 模拟的是类似 sql dialect 的 cursor, 通过该方法可以返回一个连接 flink gateway 的 client,在 cursor 的整个实例生命周期内使用的是同一个 FlinkClient 的 session。

class FlinkEngine:

    def __init__(self, catalog: str, schema: str = None,
                 init_commands: List[str] = None, **kwargs):
        self.catalog = catalog
        self.schema = schema
        self.init_commands = init_commands if init_commands else []
        self.kwargs = kwargs

        self.client: Optional[FlinkClient] = None

        self.columns = None

    @property
    def engine(self) -> 'FlinkEngine':
        return self

    def raw_connection(self) -> 'FlinkEngine':
        # 实例化 flink clint 生成一个 session, 当 cursor 结束时重置 client
        with FlinkClient(catalog=self.catalog, init_commands=self.init_commands) as c:
            self.client = c
        return self

    def cursor(self) -> 'FlinkEngine':
        """Return a new :py:class:`Cursor` object using the connection."""
        return self

    def close(self):
        self.client = None
        self.columns = None

    def commit(self):
        """Presto does not support transactions"""
        pass

    @property
    def description(self):
        """This read-only attribute is a sequence of 7-item sequences.

           Each of these sequences contains information describing one result column:

           - name
           - type_code
           - display_size (None in current implementation)
           - internal_size (None in current implementation)
           - precision (None in current implementation)
           - scale (None in current implementation)
           - null_ok (always True in current implementation)

           The ``type_code`` can be interpreted by comparing it to the Type Objects specified in the
           section below.
           """
        if self.columns is None:
            return None
        return [
            # name, type_code, display_size, internal_size, precision, scale, null_ok
            (col['name'], col['type'], None, None, None, None, True)
            for col in self.columns
        ]

FlinkEngineSpec
该方法需要继承 superset 的 BaseEngineSpec, 需要定义 engine 信息和 drivers 信息, 在 superset 的 sqllab 执行 sql 的时候会通过 drivers 定位到该方法执行。
所以在前边界面配置的时候需要注意连接信息中的 driver_name 要和类属性 drivers 匹配。

class FlinkEngineSpec(BaseEngineSpec):
    engine = "flink"
    engine_name = "Apache Flink"

    # 我们后边在业务代码中会通过判断连接的 driver_name 是否为 flink_driver 来调用该类中的方法
    # 因此需要注意前端界面配置是否一致
    drivers = {"flink_driver": "flink gateway engine"}
    default_driver = "flink_driver"

    client_init_commands = []

    @classmethod
    def get_schema_names(cls, catalog: str) -> List[str]:
        with FlinkClient(init_commands=cls.client_init_commands) as c:
            names = c.get_schema_names(catalog)
        return names

    @classmethod
    def get_table_names(cls, catalog: str, schema: str, database=None) -> List[str]:
        with FlinkClient(init_commands=cls.client_init_commands) as c:
            names = c.get_table_names(catalog, schema)
        return names

    @classmethod
    def get_view_names(cls, catalog: str, schema: str, database=None) -> Set[str]:
        return set()

    @classmethod
    def get_columns(cls, catalog: str, schema: str, table: str) -> List[Dict[str, Any]]:
        with FlinkClient(init_commands=cls.client_init_commands) as c:
            cs = c.get_columns(catalog, schema, table)
        result: List[Dict[str, Any]] = []
        for column in cs:
            column_spec = cls.get_column_spec(column[1])
            column_type = column_spec.sqla_type if column_spec else None
            if column_type is None:
                column_type = types.String()
            c = {
                "name": column[0],
                "type": column_type,
                "nullable": column[2],
                "default": None,
                "key": column[3]
            }

            try:
                c.update({"comment": column[6]})
            except Exception:
                pass
            result.append(c)
        return result

    @classmethod
    def get_pk_constraint(cls, catalog: str, schema: str, table: str) -> Dict[str, Any]:
        with FlinkClient(init_commands=cls.client_init_commands) as c:
            cs = c.get_columns(catalog, schema, table)
        pks = {"constrained_columns": None, "name": None}
        for column in cs:
            _type = column[3]
            if isinstance(_type, str) and _type.startswith("PRI"):
                matches = re.findall(r'\((.*?)\)', _type)
                pks["constrained_columns"] = [field.strip() for field in matches[0].split(',')]
                break
        return pks

    @classmethod
    def select_star(  # pylint: disable=too-many-arguments,too-many-locals
        cls,
        database: Database,
        table_name: str,
        engine: Engine,
        schema: Optional[str] = None,
        limit: int = 100,
        show_cols: bool = False,
        indent: bool = True,
        latest_partition: bool = True,
        cols: Optional[List[Dict[str, Any]]] = None,
    ) -> str:
        fields: Union[str, List[Any]] = "*"
        cols = cols or []
        if (show_cols or latest_partition) and not cols:
            cols = database.get_columns(table_name, schema)
        if show_cols:
            fields = cls._get_fields(cols)

        if schema:
            full_table_name = f"{schema}.{table_name}"
        else:
            full_table_name = f"{table_name}"

        qry = select(fields).select_from(text(full_table_name))

        if limit:
            qry = qry.limit(limit)
        if latest_partition:
            partition_query = cls.where_latest_partition(
                table_name, schema, database, qry, columns=cols
            )
            if partition_query is not None:
                qry = partition_query

        sql = str(qry.compile(compile_kwargs={"literal_binds": True}))

        if indent:
            sql = sqlparse.format(sql, reindent=True)
        return sql

    @classmethod
    def execute(  # pylint: disable=unused-argument
        cls,
        cursor: FlinkEngine,
        query: str,
        **kwargs: Any,
    ) -> None:
        """执行 flink sql 语句"""
        return cursor.client.execute(query)

    @classmethod
    def handle_cursor(cls, cursor: FlinkClient, query: Query, session: Session) -> None:
        """
        在执行 flink sql 执行过程中,执行一些动作:
        记录flink sql 任务的一些关键信息
        记录一些执行日志
        sleep 等待执行结果 等
        """
        return

    @classmethod
    def fetch_data(
        cls, cursor: FlinkEngine, limit: Optional[int] = None
    ) -> List[Tuple[Any, ...]]:
        res = cursor.client.fetch_result(operation_id=cursor.client.operation_ids[-1])
        cursor.columns = [{"name": i['name'], "type": i["logicalType"]["type"]} for i in
                          res.get('columns', [])]
        return [tuple(i['fields']) for i in res['data']]

    @classmethod
    def has_implicit_cancel(cls) -> bool:
        """
        该方法是sqllab 界面执行 sql 中点击暂停时调用的
        这里直接返回了 True, 因为 gateway 的 session 自己有过期时间
        我们也可以通过调用 gateway 的关闭 session 接口主动关闭
        """
        return True

    @classmethod
    def cancel_query(  # pylint: disable=unused-argument
        cls,
        cursor: FlinkClient,
        query: Query,
        cancel_query_id: str,
    ) -> bool:
        """
        该方法是sqllab 界面执行 sql 中点击暂停时调用的
        这里直接返回了 True, 因为 gateway 的 session 自己有过期时间
        我们也可以通过调用 gateway 的关闭 session 接口主动关闭
        """
        return True

修改测试连接逻辑

测试连接入口方法在 superset/databases/commands/test_connection.py下的 TestConnectionDatabaseCommand 类中的 run 方法,我们需要通过连接的 driver 来通过 FLinkClient 测试与 Flink gateway 的连接是否正常:
image.png

# flink 类型的连接走 flink gateway 验证
if database.driver == FLINK_DRIVER_NAME:
    from superset.db_engine_specs.flink import FlinkClient
    init_commands = database.get_encrypted_extra().get("init_commands", [])
    with FlinkClient(init_commands=init_commands) as c:
        if not c.ping():
            raise Exception("ping flink gateway err")
    return

修改 sqllab 界面逻辑

sqllab 界面需要修改获取库表信息和执行 sql 的接口逻辑:
image.png
查询库表字段信息的接口入口类都在 superset/superset/databases/api.py中:
image.png
api 入口的代码逻辑不需要修改。
获取库名称列表,修改 superset/superset/models/core.pyDatabase类中的 get_all_schema_names方法:
image.png

# flink 连接不走 sqlalchemy 的 create engine, 属于 FlinkEngineSpec
if self.driver == FLINK_DRIVER_NAME:
    extra = self.get_encrypted_extra()
    self.db_engine_spec.client_init_commands = extra.get("init_commands", [])
    return self.db_engine_spec.get_schema_names(extra['catalog'])

获取表名称列表,修改 superset/superset/models/core.pyDatabase类中的 get_all_table_names_in_schema方法和 get_all_view_names_in_schema方法:
image.png

# flink 连接不走 sqlalchemy 的 create engine, 属于 FlinkEngineSpec
if self.driver == FLINK_DRIVER_NAME:
    extra = self.get_encrypted_extra()
    self.db_engine_spec.client_init_commands = extra.get("init_commands", [])
    tables = {
        (table, schema)
        for table in self.db_engine_spec.get_table_names(
            extra['catalog'],
            schema
        )
    }
    return tables

image.png

if self.driver == FLINK_DRIVER_NAME:
    extra = self.get_encrypted_extra()
    self.db_engine_spec.client_init_commands = extra.get("init_commands", [])
    return {
        (view, schema)
        for view in self.db_engine_spec.get_view_names(
            extra['catalog'],
            schema
        )
    }

获取字段信息,修改 superset/superset/models/core.pyDatabase类中的 get_columns方法:
image.png

if self.driver == FLINK_DRIVER_NAME:
    extra = self.get_encrypted_extra()
    self.db_engine_spec.client_init_commands = extra.get("init_commands", [])
    return self.db_engine_spec.get_columns(extra["catalog"], schema, table_name)

获取表 comment 信息,修改 get_table_comment方法,这个目前还没有找到通过 flink sql 查询表 comment 信息的方法,这里直接返回空:
image.png

if self.driver == FLINK_DRIVER_NAME:
    return ""

获取索引信息,修改 get_indexes方法,返回空列表:
image.png

if self.driver == FLINK_DRIVER_NAME:
    return []

获取主键信息,修改get_pk_constraint方法:
image.png

if self.driver == FLINK_DRIVER_NAME:
    extra = self.get_encrypted_extra()
    self.db_engine_spec.client_init_commands = extra.get("init_commands", [])
    return self.db_engine_spec.get_pk_constraint(extra["catalog"], schema, table_name)

获取外键信息,修改get_foreign_keys方法:
image.png

if self.driver == FLINK_DRIVER_NAME:
    return []

执行 sql 相关的需要修改 _get_sqla_engine方法。
image.png

# VOYAH 如果是 flink_driver 就使用 FlinkEngineSpec.engine
if self.driver == FLINK_DRIVER_NAME:
    extra = self.get_encrypted_extra()
    self.db_engine_spec.client_init_commands = extra.get("init_commands", [])
    from superset.db_engine_specs.flink import FlinkEngine
    return FlinkEngine(schema=schema, **params)

总结

增加其他数据源连接,主要需要修改两个文件新增一个文件:

  • 修改 superset/databases/commands/test_connection.py中的TestConnectionDatabaseCommand 类中的 run 方法。

    修改 superset/superset/models/core.pyDatabase类中的get_all_table_names_in_schemaget_all_view_names_in_schemaget_columnsget_table_commentget_indexesget_pk_constraintget_foreign_keys_get_sqla_engine 方法。

  • superset/superset/db_engine_specs目录下新增一个 flink.py文件。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1536586.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Linux--进程(1)

目录 前言 1.冯诺依曼体系结构 2. 操作系统(Operator System)--第一个被加载的软件 3.进程 3.1基本概念 3.2Linux中的PCB 3.3通过系统调用创建子进程-fork初识 fork:创建一个子进程 为什么要创建子进程? fork的原理: 进一步了解fo…

黄仁勋对话Transformer七位作者:今天发生的一切都可以追溯到那一刻

关注文章底部的公众号,获取每日AI最新新闻 获取每日资讯 本周三,关于Transformer神经网络架构的开创性研究论文《Attention Is All You Need》作者们在GTC上齐聚一堂。 在GTC的900多个会议中,最受欢迎的是由NVIDIA创始人兼首席执行官黄仁勋主持的与传奇论文七位作者的交流。…

手上积累了一些企业目录,但是没有电话,在企XX天X查也没找到咋办?如何快速精准批量查询其他平台上查不到的企业电话?

在B端业务场景中,长期需要进行拓客。有时候是企业提供客户的联系方式,有时候是销售利用自己的人脉资源,对于资源不多的销售就需要查找到目标客户的联系方式。长期来说,销售都需要进行拓客,自己通过社交,网络…

ATA-5310前置微小信号放大器在红外线传感器中的应用

当涉及到红外线传感器时,前置微小信号放大器扮演着关键的角色。红外线传感器是一种用于探测和测量红外辐射的设备,它们通常用于热成像、物体检测、温度测量、动作检测等应用中。前置微小信号放大器在红外线传感器中的应用具有重要意义,下面将…

Vue js封装接口

天梦星服务平台 (tmxkj.top)https://tmxkj.top/#/ 1.安装axios npm install axios -g 2.在src下新建一个Api文件夹,再创建一个js文件 import axios from axios let configuration {url:"http://localhost:9090" } /*** 请求项目数据的请求体*/ async function h…

从错误中进行上下文学习

1、写作动机: 在上下文学习中,也称为少样本提示(ICL),一直是调整LLM适应下游任务的标准方法,通过从少量输入-输出示例中学习。然而,所有基于ICL的方法都只从正确的输入-输出对中学习。 2、主要…

C++的内存管理

目录 1. C/C内存分布 2. C语言中动态内存管理方式 3. C内存管理方式 3.1 new/delete操作内置类型 4. operator new与operator delete函数 4.1 连续开辟空间(尽力了解) 5. new和delete的实现原理 5.1 内置类型 5.2 自定义类型 6. 深入理解 6.1malloc/free和new/delete的区…

探索多视角驱动的层次内容感知网络用于指静脉识别

文章目录 探索多视角驱动的层次内容感知网络用于指静脉识别总结摘要介绍相关工作多视角方法长短时记忆基于视角的目标表达 方法全局主干网络局部感知模块损失函数 实验和分析数据库实验设置和训练策略消融实验视角一致性的效果 参考文献 论文: Exploiting Multiperspective Dr…

小米相册提取表格选项消失解决方法

小米相册这次的提取表格选项消失 故障原因: 因为部分用户将小爱视觉(原名扫一扫)这个应用给卸载了导致 解决方法 应用商店下载 小爱视觉 安装后授权即可使用 注意:系统最好为最新的 Xiaomi HyperOS系统

抖音小店保证金是多少?怎么缴纳?最全的解答来了!

大家好,我是电商糖果 关于抖音小店的保证金,很多人并不太了解。 再加上保证金每年都会有变动,造成很多想开店的商家完全不懂,应该准备多少钱,以及如何缴纳? 这里糖果就给大家总结一下,想开店…

基于SSM+Jsp+Mysql的高校二手交易平台

基于SSMJspMysql的高校二手交易平台 基于SSMJspMysql的高校二手交易平台的设计与实现 开发语言:Java框架:ssm技术:JSPJDK版本:JDK1.8服务器:tomcat7数据库:mysql 5.7(一定要5.7版本&#xff0…

JetBrains全家桶激活,分享 GoLand 2024 激活的方案

大家好,欢迎来到金榜探云手! GoLand 公司简介 JetBrains 是一家专注于开发工具的软件公司,总部位于捷克。他们以提供强大的集成开发环境(IDE)而闻名,如 IntelliJ IDEA、PyCharm、和 GoLand等。这些工具被…

AI智能分析网关V4在非煤矿山安全生产视频智能监管场景中的应用

近年来,全国非煤矿山((含金属非金属矿山、尾矿库,以及矿泉水等其他矿山)安全生产工作取得明显成效,但安全基础仍然薄弱,事故总量仍然较大,重特大事故尚未得到根本遏制,安…

shell编程-jq命令详解

文章目录 前言一、jq简介1. 简介2. 语法3. 命令选项 二、用于处理json数据1. 过滤1.1 标识运算符1.2 基本过滤1.3 获取对象属性1.3 迭代数组元素1.4 获取数组元素1.5 使用运算符 2. 类型和值2.1 数组构造2.2 对象构造2.3 递归下降 3. 内置运算符和函数3.1 算术运算符3.2 函数3.…

外包干了20天,技术退步明显.......

先说一下自己的情况,大专生,21年通过校招进入杭州某软件公司,干了接近2年的功能测试,今年年初,感觉自己不能够在这样下去了,长时间呆在一个舒适的环境会让一个人堕落! 而我已经在一个企业干了2年的功能测试…

20240316-2-协同过滤(collaborative filtering)

协同过滤(collaborative filtering) 直观解释 协同过滤是推荐算法中最常用的算法之一,它根据user与item的交互,发现item之间的相关性,或者发现user之间的相关性,进行推荐。比如你有位朋友看电影的爱好跟你类似,然后最…

PublicCMS 后台模块 站点执行脚本RCE漏洞

PublicCMS是采用2023年主流技术开发的开源JAVACMS系统。由天津黑核科技有限公司开发,架构科学,轻松支撑上千万数据、千万PV;支持可视化编辑,多维扩展,全文搜索,全站静态化,SSI,动态页…

基于Spring Boot的拍卖管理系统设计与实现

摘 要 随着社会的发展,系统的管理形势越来越严峻。越来越多的用户利用互联网获得信息,但各种信息鱼龙混杂,信息真假难以辨别。为了方便用户更好的获得信息,因此,设计一种安全高效的拍卖管理系统极为重要。 为设计一个…

【Linux】Linux工具学习之gcc/g++

🔥博客主页: 小羊失眠啦. 🎥系列专栏:《C语言》 《数据结构》 《C》 《Linux》 《Cpolar》 ❤️感谢大家点赞👍收藏⭐评论✍️ 接上文,我们已经学习了 Linux 中的编辑器 vim 的相关使用方法,现在…

就业班 第二阶段 2401--3.19 day2 DDL DML DQL 多表查询

在mysql库里的语句 \G 竖着排列 ; \g 横着排列 数据库用户组成 双单引号单都行 -- sql的注释 创建mysql用户:(兼容5.7 8.0 ) create user root% identified by Qwer123..; grant all on *.* to root%; flush privileges; mysql 5.7 grant …