自训Transformer模型:识别图像是否由AI生成?

news2024/11/16 1:27:20

背景

随着AI生成图像技术的迅猛发展,特别是生成对抗网络(GANs)和深度学习的不断进步,生成的图像变得越来越逼真。

这项技术不仅催生了许多创新应用,也带来了潜在的风险和挑战。

Transformer模型在图像识别中的作用

1、特征学习能力:Transformer模型具有强大的特征提取和表示能力,能够从图像中学习到细微的特征差异,识别出AI生成图像与真实图像之间的细微区别。

2、上下文理解:与传统的卷积神经网络(CNN)相比,Transformer模型更擅长捕捉图像中的全局上下文信息,使其在识别AI生成图像时,尤其在细节和纹理方面,表现得更加精准。

3、适应性强:通过预训练和微调,Transformer模型能够适应各种图像生成技术,保持高效的识别能力,即便面对不断进化的AI生成技术。

以下是一个利用Transformer模型来识别图像是否由AI生成的例子。

数据集

类别训练集数量测试集数量
FAKE50,00010,000
REAL50,00010,000
总计100,00020,000

图片

50,000个真实图片和50,000个AI生成图片

完整步骤

1、导入包

import numpy as np
from datasets import load_dataset
import torch
from transformers importViTFeatureExtractor
from transformers importTrainingArguments
from transformers importTrainer
import tensorflow as tf
from tensorflow.keras.preprocessing.image importImageDataGenerator
from transformers importViTForImageClassification, default_data_collator
from torch.utils.data importDataLoader,Dataset
import os
from PIL import Image

2、图像进行预处理

from torch.utils.data importDataset
from PIL importImage
import os
import torch

classCustomImageDataset(Dataset):
def __init__(self, img_dir, feature_extractor):
"""
        初始化数据集。
        :param img_dir: 包含图像的根目录路径。应包含两个子目录:'REAL' 和 'FAKE'。
        :param feature_extractor: 用于图像预处理的特征提取器。
        """
self.img_dir = img_dir
self.img_labels =[]#存储图像标签的列表
self.img_files =[]#存储图像文件路径的列表
self.feature_extractor = feature_extractor  # 特征提取器
self.label_mapping ={'REAL':1,'FAKE':0}#标签映射字典

# 遍历 'REAL' 和 'FAKE' 目录
for label_dir in['REAL','FAKE']:
            dir_path = os.path.join(img_dir, label_dir)#获取每个子目录的路径
            files = os.listdir(dir_path)#获取目录中的所有文件
for file in files:
# 将每个文件的完整路径添加到 img_files 列表
self.img_files.append(os.path.join(dir_path, file))
# 将每个文件的标签添加到 img_labels 列表
self.img_labels.append(self.label_mapping[label_dir])

def __len__(self):
"""
        返回数据集中图像的数量。
        :return: 数据集中图像的总数。
        """
return len(self.img_files)

def __getitem__(self, idx):
"""
        根据给定的索引返回图像和标签。
        :param idx: 图像的索引。
        :return: 一个字典,包含图像的张量 'pixel_values' 和标签的张量 'labels'。
        """
        img_path =self.img_files[idx]#获取图像路径
        image =Image.open(img_path).convert("RGB")#打开图像并转换为 RGB 格式
        label =self.img_labels[idx]#获取对应的标签
        features =self.feature_extractor(images=image, return_tensors="pt")#使用特征提取器处理图像
# 确保输出是字典格式,并移除多余的维度
return{"pixel_values": features['pixel_values'].squeeze(),"labels": torch.tensor(label)}

3、加载了一个本地保存的Vision Transformer模型和特征提取器,设置设备(GPU 或 CPU),并创建了用于训练和测试的数据集和数据加载器。

from transformers importViTFeatureExtractor,ViTForImageClassification
from torch.utils.data importDataLoader
import torch

# Vision Transformer (ViT) 模型在 ImageNet-21k(1400 万张图像,21,843 个类别)上以 224x224 分辨率进行预训练。
model_id ='google/vit-base-patch16-224-in21k'

# 定义本地模型文件路径
model_path ='../model'

# 加载特征提取器
feature_extractor =ViTFeatureExtractor.from_pretrained(
    model_path,#使用本地路径
    local_files_only=True# 仅使用本地文件
)

# 设定设备(GPU 或 CPU)
device = torch.device('cuda'if torch.cuda.is_available()else'cpu')

# 加载分类器模型
model =ViTForImageClassification.from_pretrained(
    model_path,#使用本地路径
    num_labels=2,#设置分类标签的数量
    local_files_only=True# 仅使用本地文件
)

# 将模型移到所选设备(GPU 或 CPU)
model.to(device)

# 创建数据集
train_dataset =CustomImageDataset(img_dir='../dataset/train', feature_extractor=feature_extractor)
test_dataset =CustomImageDataset(img_dir='../dataset/test', feature_extractor=feature_extractor)

# 创建数据加载器
train_loader =DataLoader(train_dataset, batch_size=16, shuffle=True)#训练集的数据加载器
test_loader =DataLoader(test_dataset, batch_size=16, shuffle=False)   # 测试集的数据加载器

4、打印当前设备,查看使用的设备类型。

# 打印当前设备
print("当前设备:", device)

5、设置了训练模型的参数,并使用这些参数初始化了一个Trainer实例

from transformers importTrainer,TrainingArguments, default_data_collator

# 配置训练参数
training_args =TrainingArguments(
    per_device_train_batch_size=4,#每个设备上训练的批次大小为4
    evaluation_strategy="epoch",#每个训练周期结束时进行评估
    num_train_epochs=4,#总共训练4个周期(epochs)
    save_strategy="epoch",#每个训练周期结束时保存模型
    logging_steps=10,#每10个训练步骤记录一次日志
    learning_rate=2e-4,#学习率设置为0.0002
    save_total_limit=2,#保留最新的2个模型检查点,删除旧的检查点
    remove_unused_columns=False,#不移除数据集中未使用的列
    push_to_hub=False,#不将模型推送到HuggingFaceHub
    load_best_model_at_end=True,#在训练结束时加载性能最佳的模型
    output_dir="./outputs",#模型和其他输出保存到指定目录
    use_cpu=False# 不强制使用 CPU,默认使用 GPU(如果可用)
)

# 初始化 Trainer
trainer =Trainer(
    model=model,#使用之前定义的模型
    args=training_args,#使用上面定义的训练参数
    train_dataset=train_dataset,#训练数据集
    eval_dataset=test_dataset,#评估数据集
    data_collator=default_data_collator,#数据整理器,用于处理数据批次
    compute_metrics=None,#计算指标的函数,此处不计算任何指标
)

6、开始训练

trainer.train()

时间很长。

图片

7、将trainer实例中的模型(包括模型的权重和配置)保存到指定的目录。

trainer.save_model("./outputs/final model")

图片

8、开始验证

from transformers importAutoFeatureExtractor,AutoModelForImageClassification
import os
import torch
from PIL importImage
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif']=['Microsoft YaHei']
plt.rcParams['axes.unicode_minus']=False

# 使用绝对路径
model_path = os.path.abspath("D:\\MY\\8-m\\final model")

# 尝试加载特征提取器和模型
try:
    feature_extractor =AutoFeatureExtractor.from_pretrained(model_path, local_files_only=True)
exceptOSErroras e:
print(f"加载特征提取器时出错: {e}")

try:
    model =AutoModelForImageClassification.from_pretrained(model_path, local_files_only=True)
exceptOSErroras e:
print(f"载模型时出错: {e}")

# 设备设置
device = torch.device("cuda"if torch.cuda.is_available()else"cpu")
model.to(device)

# 加载和预处理图像
image_path ='潘展乐.png'
image =Image.open(image_path).convert("RGB")
inputs = feature_extractor(images=image, return_tensors="pt")
pixel_values = inputs['pixel_values'].to(device)

# 执行预测
model.eval()
with torch.no_grad():
    outputs = model(pixel_values)

# 解析预测结果
logits = outputs.logits
predicted_class_idx = logits.argmax(-1).item()
predicted_label ='真实'if predicted_class_idx ==1else'AI生成'

# 打印预测标签
print(f"预测标签: {predicted_label}")

# 展示图像和预测结果
plt.imshow(image)
plt.axis('off')
plt.title(f"预测标签: {predicted_label}")
plt.show()

图片

潘展乐,很棒的小伙

图片

字节豆包生成的照片

over,模型的准确率还是很棒的。

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2039133.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

PHP初级栈进阶篇

小刘小刘,下雨不愁 (收藏,关注不迷路) 这里我会更新一些php进阶知识点,新手想再进一步可以有个方向,也有个知识图谱的普及 当然本篇不止写技术 会涉及一些进阶路线 我也是在这里积累,希望和同行者一起进步为后来者…

网络协议四 物理层,数据链路层,数字信号,模拟信号,信道,CSMA/CD协议-以太网帧协议,PPP协议,网卡

从这一节开始学习 五层模型。学习方法是从最底层物理层开始学习 七层模型 五层模型 各个层用的协议,以及加上协议后的称谓 各个层的作用 应用层:可以认为是原始数据,该数据称为 报文,用户数据。 运输层:也叫传输层&am…

猫头虎 分享:Python库 Pytest 的简介、安装、用法详解入门教程

猫头虎 分享:Python库 Pytest 的简介、安装、用法详解入门教程 🚀 今天猫头虎带您深入了解 Python 测试框架 Pytest 的强大功能,手把手教您从安装到实际使用,助您轻松提升代码质量!😺 摘要 📋 …

Windows蓝屏事件:深入分析与未来启示

引言 在2024年7月19日,一起引发全球范围蓝屏问题的事件,将安全领域领先的公司CrowdStrike推向了舆论的风口浪尖。尽管事后CrowdStrike发布了一份长达12页的根本原因分析(RCA),试图解释并缓解这一问题,但该…

学习笔记 韩顺平 零基础30天学会Java(2024.8.14)

P500 集合体系图 单列集合是指自己只有一个值,双列集合是像键值对这样的 P501 Collection方法 对于第三点,像Set这样的,存放进去的和取出来的顺序可能不是一样的,所以就叫无序的 P502 迭代器遍历 在调用iterator.next()方法之前必…

新160个crackme - 030-Acid Bytes.4

运行分析 需要破解Name和Serial PE分析 upx壳,32位 linux系统upx -d 脱壳 脱壳后发现是Delphi程序 静态分析&动态调试 ida搜索字符串,找到Your Name must be at least 6 Chars long !,双击进入 发现地址为红色,即函数未定义 选…

grpc简单知识

目录 gRPC简介 RPC(远程过程调用)的定义与重要性 gRPC的设计目标与使用场景 ​编辑gRPC调用方式 Unary RPC:一元RPC Server-side streaming RPC:服务端流式RPC Client-side streaming RPC:客户端流式RPC Bidirecti…

Midjourney应用-用AI帮你做广告视频(动物走秀视频制作)

​ 前言/introduction 在之前的教程里我们讲过动物拟人化图片的生成。 这篇我们讲下这种图片的一种应用: 动物走秀视频广告制作方法 使用工具: MidjourneyAI视频生成工具(即梦AI/可灵AI/runway) 操作方法 step1-Midjourney出图 …

从数字化到数智化:消费零售企业如何实现门店数智化管理?

随着信息技术的飞速发展,数字化已成为企业转型的必经之路。然而,数字化本身并不是目的,而是通往数智化的桥梁。数智化,即数据智能化,是指企业通过数字化手段收集和分析数据,进而利用这些数据驱动决策和创新…

气象大数据案例项目(求各气象站的平均气温)

气象大数据案例项目(求各气象站的平均气温) 一、项目需求二、数据格式三、项目开发3.1 在windows 进行开发3.2 运行结果3.3 对项目打包 一、项目需求 现在有一份来自美国国家海洋和大气管理局的数据集,里面包含近30年每个气象站、每小时的天…

C++ 面向对象技术实战:实现基于 POSIX 线程标准封装的线程池

线程池基础概述 为什么要有线程池?假设没有使用线程池时,一个请求用一个子线程来处理。每来一个请求,都得创建子线程,子线程执行请求,关闭子线程。当请求量(并发)比较大的时候,频繁…

新能源遇“秋老虎”,8月第二周销量集体下滑,问界惨遭腰斩

文/王俣祺 导语:随着日前7月份乘用车销量的公布,我们发现7月并没有因6月各车企的“冲量”行为迎来反噬,对于这种“淡季不淡”的现象市场上一片看好。但从近日公布的8月销量数据来看,人们对于“秋老虎”的恐怖可以说是一无所知。随…

MySQL学习[5] ——MySQL日志

五、MySQL日志 5.1 MySQL中有哪些日志? MySQL中主要有三种日志:undo log(回滚日志)、redo log(重做日志)、binlog(归档日志),简单介绍: undo log&#xff…

Redis 高级篇(分布式缓存)

一、Redis分布式缓存 单点Redis问题: 数据丢失(实现Redis数据持久化)并发能力(搭建主从集群,实现读写分离)存储能力(搭建分片集群,利用插槽机制实现动态扩容)故障恢复能…

张宇36讲重点勾划+30天保底120带刷计划

先说结论,张宇36讲不适合目标100分的同学去用! 张宇36讲,有一个问题,就是内容太多了: 页数达到了1200多页。这个恐怖的内容量,恐怕没有人可以看完。 但是张宇老师一开始说,不会删减任何内容&…

TinyWebserver的复现与改进(5):HTTP报文的解析与响应

GitHub - yzfzzz/MyWebServer: Linux高并发服务器项目,参考了TinyWebServer,将在此基础上进行性能改进与功能增加。为方便读者学习,附带详细注释和博客! TinyWebserver的复现与改进(1):服务器环…

模型训练与验证minicpm-v

minicpm-v 模型进行微调并进行验证 训练使用混合数据集进行训练,对minicpm-V进行lora微调,微调后使用llama3_1对输出结果与标签值进行比对,计算准确率。 验证代码为: # URL https://swift.readthedocs.io/zh-cn/latest/LLM/VLLM%E6%8E%A8%…

PMP到底有什么用?

PMP 就是项目管理证书,全称是项目管理专业人士资格认证,对于一个在项目管理岗位混迹五年的老油条来说,PMP 证书是敲开项目管理岗位的第一块砖,每年考 PMP 的人都很多,要是 PMP 证书没有价值,还会有那么多人…

Tomcat下载安装文档

简介 Tomcat服务器软件是一个免费的开源的web应用服务器。是Apache软件基金会的一个核心项目。由Apache,Sun和其他一些公司及个人共同开发而成。 由于Tomcat只支持Servlet/JSP少量JavaEE规范,所以是一个开源免费的轻量级Web服务器。 JavaEE规范&#x…

Java IO流使用方法 (常见方法)

Java系列文章目录 补充内容 Windows通过SSH连接Linux 第一章 Linux基本命令的学习与Linux历史 文章目录 Java系列文章目录一、前言二、学习内容:三、问题描述四、解决方案:4.1 File 的使用4.2 防止乱码问题 五、总结:5.1 学习总结&#xff1…