图片风格自动分析模型

本文涉及的产品
函数计算FC,每月15万CU 3个月
简介: 图片风格自动分析模型

## 1.1 项目背景

随着计算机视觉技术的不断发展,图片风格分析已经成为了一个热门的研究领域。图片风格分析可以帮助我们更好地理解图片中的视觉元素和艺术风格,从而在艺术、设计、广告等领域找到应用。此外,图片风格分析还可以用于推荐系统、图像检索等任务,为用户提供更个性化的服务。

近年来,深度学习技术在图片风格分析领域取得了显著的进展。通过训练卷积神经网络(CNN)模型,我们可以实现对图片风格的自动分析和分类。本项目旨在利用深度学习技术,构建一个图片风格自动分析的模型。

## 1.2 项目目标

本项目的目标是使用Python和PyTorch框架,实现一个图片风格自动分析的模型。具体来说,模型应当能够接受一张图片作为输入,判断其所属的风格类别,并给出相应的置信度。为了实现这一目标,我们将完成以下任务:

1. 收集和预处理图片风格数据;

2. 构建基于卷积神经网络的图片风格分类模型;

3. 训练模型,优化参数,提高模型性能;

4. 评估模型在测试集上的性能,分析模型的优缺点;

5. 总结项目过程,讨论可能的改进方向和未来工作。

#二 数据准备

在本节中,我们将详细介绍数据准备的过程,包括数据收集、预处理和增强。

## 1. 数据收集

为了训练一个图片风格自动分析的模型,我们需要大量带有风格标签的图片数据。以下是一些建议的数据来源:

1. **WikiArt数据集**:WikiArt是一个涵盖多种艺术风格的数据集,包含约85,000张图片,涵盖27个主要艺术风格。这个数据集可以作为本项目的主要数据来源。

2. **自行收集数据**:如果需要更多样化的数据,可以尝试从网上搜集一些有版权许可的图片,手动为这些图片添加风格标签。可以使用网络爬虫工具(如Scrapy)来自动抓取图片和元数据。

3. **合并多个数据集**:可以从其他类似的数据集中获取数据,例如Painter by Numbers等。注意需要确保数据集之间的风格标签一致。

## 2. 数据预处理

在将数据用于训练模型之前,需要进行一定的预处理操作。

1. **调整图片大小**:将所有图片调整为相同的大小。通常,卷积神经网络(CNN)要求输入图片具有相同的宽度和高度。可以使用OpenCV、PIL等库将图片统一调整为224x224像素。   示例代码:

import cv2
def resize_image(image, new_width, new_height):
    resized_image = cv2.resize(image, (new_width, new_height))
    return resized_image
image = cv2.imread("path/to/image.jpg")
resized_image = resize_image(image, 224, 224)
```

2. **归一化**:将图片的像素值归一化到0-1之间。这有助于提高模型的收敛速度。可以使用以下公式进行归一化:`normalized_image = image / 255.0`。

def normalize_image(image):
    normalized_image = image / 255.0
    return normalized_image
normalized_image = normalize_image(resized_image)
```

3. **划分数据集**:将收集到的数据划分为训练集、验证集和测试集。建议的划分比例为:70%训练集、15%验证集、15%测试集。可以使用`train_test_split`函数进行划分。   示例代码:

from sklearn.model_selection import train_test_split
def split_data(images, labels, train_ratio, val_ratio, test_ratio):
    train_images, temp_images, train_labels, temp_labels = train_test_split(images, labels, test_size=val_ratio + test_ratio, stratify=labels)
    val_images, test_images, val_labels, test_labels = train_test_split(temp_images, temp_labels, test_size=test_ratio / (val_ratio + test_ratio), stratify=temp_labels)
    return train_images, train_labels, val_images, val_labels, test_images, test_labels
train_images, train_labels, val_images, val_labels, test_images, test_labels = split_data(images, labels, 0.7, 0.15, 0.15)
```

## 3. 数据增强

为了提高模型的泛化能力,可以采用数据增强技术。常用的数据增强方法包括随机旋转、翻转、裁剪、添加噪声等。可以使用`torchvision.transforms`模块进行数据增强。示例代码:

import torch
from torchvision import transforms
def get_transforms(train=True):
    if train:
        transform = transforms.Compose([
            transforms.RandomHorizontalFlip(),
            transforms.RandomVerticalFlip(),
            transforms.RandomRotation(30),
            transforms.RandomResizedCrop(224, scale=(0.8, 1.0)),
            transforms.ColorJitter(brightness=0.1, contrast=0.1, saturation=0.1, hue=0.1),
            transforms.ToTensor(),
            transforms.Normalize(mean=[0.485, 0.456,0.406], std=[0.229, 0.224, 0.225]),
        ])
    else:
        transform = transforms.Compose([
            transforms.Resize(256),
            transforms.CenterCrop(224),
            transforms.ToTensor(),
            transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
        ])
    return transform
train_transforms = get_transforms(train=True)
val_transforms = get_transforms(train=False)
test_transforms = get_transforms(train=False)

以上代码定义了一个`get_transforms`函数,该函数根据输入参数`train`返回不同的数据增强方法。训练集使用随机翻转、旋转、裁剪和颜色抖动等方法进行增强,而验证集和测试集只进行尺寸调整和标准化操作。

至此,我们已经完成了数据准备部分的工作。接下来可以使用处理后的数据集进行模型训练和评估。

# 三 模型构建

在本节中,我们将详细介绍模型构建过程,包括选择模型架构、定义损失函数和优化器以及实现训练和评估流程。

## 1. 选择模型架构

对于图片风格分类任务,我们可以选择卷积神经网络(CNN)作为基本架构。具体来说,我们可以使用预训练的CNN模型(如VGG、ResNet等)作为特征提取器,并在其顶部添加一个全连接层以实现分类。我们将使用PyTorch框架进行实现。

示例代码:

import torch
import torch.nn as nn
import torchvision.models as models
def create_model(num_classes, use_pretrained=True):
    model = models.resnet34(pretrained=use_pretrained)  # 使用预训练的ResNet34模型
    num_features = model.fc.in_features  # 获取全连接层的输入特征数
    model.fc = nn.Linear(num_features, num_classes)  # 替换全连接层以适应我们的分类任务
    return model
num_classes = 27  # 假设我们有27个艺术风格类别
model = create_model(num_classes)

## 2. 定义损失函数和优化器

对于分类任务,我们可以使用交叉熵损失作为损失函数。同时,我们可以选择随机梯度下降(SGD)或Adam等优化器进行模型优化。

示例代码:

import torch.optim as optim
criterion = nn.CrossEntropyLoss()
# 使用SGD优化器
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)
# 或使用Adam优化器
# optimizer = optim.Adam(model.parameters(), lr=0.001)

## 3. 实现训练和评估流程

接下来,我们需要编写训练和评估函数,用于在训练集上训练模型以及在验证集上进行验证。这里我们使用PyTorch框架实现。

示例代码:

def train_epoch(model, dataloader, criterion, optimizer, device):
    model.train()
    running_loss = 0.0
    running_corrects = 0
    for inputs, labels in dataloader:
        inputs = inputs.to(device)
        labels = labels.to(device)
        optimizer.zero_grad()
        outputs = model(inputs)
        _, preds = torch.max(outputs, 1)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()
        running_loss += loss.item() * inputs.size(0)
        running_corrects += torch.sum(preds == labels.data)
    epoch_loss = running_loss / len(dataloader.dataset)
    epoch_acc = running_corrects.double() / len(dataloader.dataset)
    return epoch_loss, epoch_acc
def evaluate(model, dataloader, criterion, device):
    model.eval()
    running_loss = 0.0
    running_corrects = 0
    with torch.no_grad():
        for inputs, labels in dataloader:
            inputs = inputs.to(device)
            labels = labels.to(device)
            outputs = model(inputs)
            _, preds = torch.max(outputs, 1)
            loss = criterion(outputs, labels)
            running_loss += loss.item() * inputs.size(0)
            running_corrects += torch.sum(preds == labels.data)
    epoch_loss = running_loss / len(dataloader.dataset)
    epoch_acc = running_corrects.double() / len(dataloader.dataset)
    return epoch_loss, epoch_acc

现在我们已经定义了训练和评估函数,可以开始训练模型。首先,将模型和相关变量移动到GPU(如果有的话)。

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model = model.to(device)
criterion = criterion.to(device)

然后,执行训练循环。

num_epochs = 30
for epoch in range(num_epochs):
    train_loss, train_acc = train_epoch(model, train_dataloader, criterion, optimizer, device)
    val_loss, val_acc = evaluate(model, val_dataloader, criterion, device)
    print(f'Epoch {epoch + 1}/{num_epochs}')
    print(f'TrainLoss: {train_loss:.4f} Train Acc: {train_acc:.4f}')
    print(f'Val Loss: {val_loss:.4f} Val Acc: {val_acc:.4f}')

在训练过程中,我们会监控验证集上的损失和准确率,并根据需要调整模型的超参数(如学习率、优化器等)。训练完成后,可以在测试集上评估模型的性能。

test_loss, test_acc = evaluate(model, test_dataloader, criterion, device)
print(f'Test Loss: {test_loss:.4f} Test Acc: {test_acc:.4f}')

至此,我们已经完成了模型构建部分的工作。接下来,可以根据实际需求对模型进行调优和部署。

# 四 模型训练

在这一部分,我们将详细介绍如何进行模型训练,包括数据加载、数据预处理、训练循环以及模型保存。

## 1. 数据加载和预处理

我们将使用PyTorch的`ImageFolder`类加载数据,并使用`DataLoader`进行数据批处理。同时,对数据进行预处理,包括图像缩放、裁剪、归一化等操作。

示例代码:

import torchvision.transforms as transforms
from torchvision.datasets import ImageFolder
from torch.utils.data import DataLoader
# 定义数据预处理操作
data_transforms = {
    'train': transforms.Compose([
        transforms.RandomResizedCrop(224),
        transforms.RandomHorizontalFlip(),
        transforms.ToTensor(),
        transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
    ]),
    'val': transforms.Compose([
        transforms.Resize(256),
        transforms.CenterCrop(224),
        transforms.ToTensor(),
        transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
    ]),
    'test': transforms.Compose([
        transforms.Resize(256),
        transforms.CenterCrop(224),
        transforms.ToTensor(),
        transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
    ])
}
# 定义数据集路径
data_dir = 'path/to/your/data'
train_dir = f'{data_dir}/train'
val_dir = f'{data_dir}/val'
test_dir = f'{data_dir}/test'
# 加载数据集
train_dataset = ImageFolder(train_dir, transform=data_transforms['train'])
val_dataset = ImageFolder(val_dir, transform=data_transforms['val'])
test_dataset = ImageFolder(test_dir, transform=data_transforms['test'])
# 创建DataLoader
batch_size = 64
train_dataloader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True, num_workers=4)
val_dataloader = DataLoader(val_dataset, batch_size=batch_size, shuffle=False, num_workers=4)
test_dataloader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False, num_workers=4)

## 2. 训练循环

我们已经在上一个问题中定义了`train_epoch`和`evaluate`函数。现在,我们将使用这两个函数进行模型训练。首先,将模型和相关变量移动到GPU(如果有的话)。

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model = model.to(device)
criterion = criterion.to(device)

接下来,执行训练循环。

num_epochs = 30
best_val_acc = 0.0
best_model_weights = None
for epoch in range(num_epochs):
    train_loss, train_acc = train_epoch(model, train_dataloader, criterion, optimizer, device)
    val_loss, val_acc = evaluate(model, val_dataloader, criterion, device)
    # 如果验证准确率有所提高,则保存当前模型权重
    if val_acc > best_val_acc:
        best_val_acc = val_acc
        best_model_weights = model.state_dict().copy()
    print(f'Epoch {epoch + 1}/{num_epochs}')
    print(f'Train Loss: {train_loss:.4f} Train Acc: {train_acc:.4f}')
    print(f'Val Loss: {val_loss:.4f} Val Acc: {val_acc:.4f}')
# 加载具有最佳验证准确率的模型权重
model.load_state_dict(best_model_weights)

## 3. 模型保存

训练完成后,我们需要将训练好的模型保存到本地文件,以便后续使用。

示例代码:

torch.save(model.state_dict(), 'model_weights.pth')

此外,也可以保存整个模型结构和权重。

torch.save(model, 'model.pth')

至此,我们已经完成了模型训练部分的工作。在训练过程中,我们监控了验证集上的损失和准确率,并根据需要调整模型的超参数。训练完成后,可以在测试集上评估模型的性能。

test_loss, test_acc = evaluate(model, test_dataloader, criterion, device)
print(f'Test Loss: {test_loss:.4f} Test Acc: {test_acc:.4f}')

训练好的模型可以用于实际应用场景,如艺术风格分类、艺术作品推荐等。在实际部署过程中,我们需要对输入图像进行相同的预处理操作,并使用训练好的模型进行推理,得到分类结果。

# 五 模型优化

模型优化是指通过调整模型的各种参数和结构,以提高模型在训练集和验证集上的性能。以下是一些常见的模型优化方法:

## 1. 调整模型结构

根据具体任务的需求,可以调整模型结构以获得更好的性能。例如:

- 增加或减少卷积层和全连接层的数量。

- 调整卷积层和全连接层的神经元数量。

- 考虑使用更复杂的模型,如ResNet、Inception和DenseNet等。

## 2. 数据增强

数据增强是指通过对训练数据进行一些随机变换,以增加训练数据的多样性。数据增强有助于提高模型的泛化能力。常见的数据增强方法包括:

- 随机翻转(水平或垂直)。

- 随机裁剪。

- 随机旋转。

- 随机缩放。

- 颜色抖动。

在上面的示例代码中,我们已经使用了`RandomResizedCrop`和`RandomHorizontalFlip`进行数据增强。可以根据需求添加更多的数据增强方法。

## 3. 正则化

正则化是一种提高模型泛化能力的方法,通过在损失函数中添加额外的惩罚项(通常是模型权重的L1或L2范数)来防止模型过拟合。在PyTorch中,可以通过为`optim`中的`weight_decay`参数设置一个正值来实现L2正则化。

示例代码:

optimizer = torch.optim.SGD(model.parameters(), lr=0.001, momentum=0.9, weight_decay=0.0001)

## 4. 学习率调整

学习率是优化器中的一个重要参数,它决定了模型权重的更新速度。合适的学习率可以加速模型收敛,提高模型性能。通常,我们可以在训练过程中动态调整学习率,例如:

- 使用学习率衰减:在固定的训练轮数后,将学习率乘以一个衰减因子。

- 使用学习率预热:在训练初期使用较小的学习率,然后逐渐提高。

- 使用自适应学习率调整策略,如Adam、RMSprop等。

在PyTorch中,可以使用`torch.optim.lr_scheduler`中的学习率调度器实现这些策略。

示例代码:

from torch.optim.lr_scheduler import StepLR
optimizer = torch.optim.SGD(model.parameters(), lr=0.001, momentum=0.9)
scheduler = StepLR(optimizer, step_size=10, gamma=0.1)
for epoch in range(num_epochs):
    train_loss, train_acc = train_epoch(model, train_dataloader, criterion, optimizer, device)
    val_loss, val_acc = evaluate(model, val_dataloader, criterion, device)
    # 更新学习率
    scheduler.step()

## 5. 早停(Early Stopping)

早停是一种避免过拟合的策略,当连续多个训练周期中,模型在验证集上的性能没有明显提高时,提前终止训练。这可以节省计算资源,同时避免模型在训练集上过拟合。要实现早停,需要在训练循环中添加一个计数器来跟踪验证准确率没有提高的训练周期的数量。当该计数器达到预先设定的阈值时,终止训练。

示例代码:

num_epochs = 30
patience = 5
num_epochs_no_improve = 0
best_val_acc = 0.0
best_model_weights = None
for epoch in range(num_epochs):
    train_loss, train_acc = train_epoch(model, train_dataloader, criterion, optimizer, device)
    val_loss, val_acc = evaluate(model, val_dataloader, criterion, device)
    # 如果验证准确率有所提高,则保存当前模型权重,并重置计数器
    if val_acc > best_val_acc:
        best_val_acc = val_acc
        best_model_weights = model.state_dict().copy()
        num_epochs_no_improve = 0
    else:
        num_epochs_no_improve += 1
    print(f'Epoch {epoch + 1}/{num_epochs}')
    print(f'Train Loss: {train_loss:.4f} Train Acc: {train_acc:.4f}')
    print(f'Val Loss: {val_loss:.4f} Val Acc: {val_acc:.4f}')
    # 如果连续多个训练周期中,验证准确率没有提高,则提前终止训练
    if num_epochs_no_improve == patience:
        print(f'Early stopping at epoch {epoch + 1}')
        break
# 加载具有最佳验证准确率的模型权重
model.load_state_dict(best_model_weights)

## 6. 使用预训练模型(Transfer Learning)

当训练数据量有限时,可以使用预训练模型进行迁移学习。预训练模型在大型数据集上进行了预先训练,具有很好的特征提取能力。我们可以将预训练模型的卷积层部分作为特征提取器,接着添加一个全新的分类器,并在我们的任务上进行微调。

在PyTorch中,可以使用`torchvision.models`中的预训练模型进行迁移学习。

示例代码:

import torchvision.models as models
# 加载预训练模型
pretrained_model = models.resnet18(pretrained=True)
# 用一个新的全连接层替换模型的最后一层
num_classes = 10
num_features = pretrained_model.fc.in_features
pretrained_model.fc = torch.nn.Linear(num_features, num_classes)

之后,可以进行模型训练和优化。注意在微调预训练模型时,可以使用较小的学习率,以避免破坏预训练模型的权重。

这些模型优化策略可以组合使用,以提高模型在特定任务上的性能。在实际应用中,需要根据具体情况和需求选择合适的优化策略。

# 六 模型评估

模型评估是指在模型训练完成后,使用独立的测试集来评估模型的性能。这有助于我们了解模型在未见过的数据上的泛化能力。以下是一些常见的模型评估方法:

## 1. 准确率(Accuracy)

准确率是分类问题中最常用的评估指标之一。它表示模型正确预测的样本数占总样本数的比例。计算公式为:

准确率 = (正确预测的样本数) / (总样本数)

在PyTorch中,可以使用如下代码计算准确率:

def compute_accuracy(model, dataloader, device):
    correct = 0
    total = 0
    model.eval()
    with torch.no_grad():
        for data in dataloader:
            inputs, labels = data
            inputs, labels = inputs.to(device), labels.to(device)
            outputs = model(inputs)
            _, predicted = torch.max(outputs.data, 1)
            total += labels.size(0)
            correct += (predicted == labels).sum().item()
    return correct / total

## 2. 混淆矩阵(Confusion Matrix)

混淆矩阵是一种展示模型分类结果的矩阵,它将模型的预测标签与实际标签进行对比。在多分类问题中,混淆矩阵的每一行对应一个真实类别,每一列对应一个预测类别。混淆矩阵的主对角线上的元素表示正确分类的样本数,其他元素表示被错误分类的样本数。

在Python中,可以使用`sklearn.metrics.confusion_matrix`函数计算混淆矩阵:

import numpy as np
from sklearn.metrics import confusion_matrix
def compute_confusion_matrix(model, dataloader, device):
    true_labels = []
    predictions = []
    model.eval()
    with torch.no_grad():
        for data in dataloader:
            inputs, labels = data
            inputs, labels = inputs.to(device), labels.to(device)
            outputs = model(inputs)
            _, predicted = torch.max(outputs.data, 1)
            true_labels.extend(labels.cpu().numpy())
            predictions.extend(predicted.cpu().numpy())
    return confusion_matrix(true_labels, predictions)

## 3. 精确率(Precision)、召回率(Recall)和F1分数(F1 Score)

精确率、召回率和F1分数是分类问题中的另外三个常用评估指标。它们分别衡量了模型在正例预测中的正确率、模型对正例的识别能力以及这两者的调和平均值。

- 精确率:正确预测为正例的样本数与所有预测为正例的样本数之比。

- 召回率:正确预测为正例的样本数与所有实际为正例的样本数之比。

- F1分数:精确率和召回率的调和平均值。

在Python中,可以使用`sklearn.metrics`中的`precision_score`、`recall_score`和`f1_score`函数来计算这些指标:

from sklearn.metrics import precision_score, recall_score, f1_score
def compute_metrics(y_true, y_pred, average='macro'):
    precision = precision_score(y_true, y_pred, average=average)
    recall = recall_score(y_true, y_pred, average=average)
    f1 = f1_score(y_true, y_pred, average=average)
    return precision, recall, f1

## 4. ROC曲线和AUC值

ROC曲线(Receiver Operating Characteristic Curve)是一种用于评估二分类问题中模型性能的图形表示方法。它通过将模型的真正例率(True Positive Rate,TPR)和假正例率(False Positive Rate,FPR)在不同阈值下的表现绘制在二维平面上,描述了模型在正例和负例之间的权衡。AUC值(Area Under the Curve)是ROC曲线下的面积,用于衡量模型的分类性能。AUC值越接近1,表示模型的性能越好;AUC值越接近0.5,表示模型的性能越接近随机猜测。

在Python中,可以使用`sklearn.metrics`中的`roc_curve`和`roc_auc_score`函数计算ROC曲线和AUC值:

import matplotlib.pyplot as plt
from sklearn.metrics import roc_curve, roc_auc_score
def plot_roc_curve_and_compute_auc(y_true, y_prob):
    fpr, tpr, thresholds = roc_curve(y_true, y_prob)
    auc = roc_auc_score(y_true, y_prob)
    plt.figure()
    plt.plot(fpr, tpr, label='ROC curve (area = %0.2f)' % auc)
    plt.plot([0, 1], [0, 1], 'k--')
    plt.xlim([0.0, 1.0])
    plt.ylim([0.0, 1.05])
    plt.xlabel('False Positive Rate')
    plt.ylabel('True Positive Rate')
    plt.title('Receiver Operating Characteristic')
    plt.legend(loc="lower right")
    plt.show()
    return auc

请注意,计算ROC曲线和AUC值需要预测概率,而不是预测类别。在PyTorch中,可以通过将模型的输出结果传入`torch.softmax`函数获得预测概率。

## 5. 交叉验证(Cross-Validation)

交叉验证是一种用于评估模型性能的方法,它将数据集分为k个子集,进行k次训练和验证过程。在每次过程中,使用一个子集作为验证集,其余子集作为训练集。通过计算k次验证结果的平均值,我们可以获得一个更稳定和准确的模型性能评估。

在Python中,可以使用`sklearn.model_selection`中的`KFold`或`StratifiedKFold`类进行交叉验证:

from sklearn.model_selection import KFold, StratifiedKFold
def cross_validation(model, X, y, k_fold=5, random_state=None):
    kfold = KFold(n_splits=k_fold, shuffle=True, random_state=random_state)
    # 或者使用 StratifiedKFold 保持每个子集中类别的分布与原数据集一致
    # kfold = StratifiedKFold(n_splits=k_fold, shuffle=True, random_state=random_state)
    scores = []
    for train_idx, val_idx in kfold.split(X, y):
        X_train, X_val = X[train_idx], X[val_idx]
        y_train, y_val = y[train_idx], y[val_idx]
        # 训练并评估模型
        model.fit(X_train, y_train)
        score = model.score(X_val, y_val)
        scores.append(score)
    return np.mean(scores), np.std(scores)

在交叉验证中,可以选择不同的折数(k值)和数据集划分策略(如`KFold`和`StratifiedKFold`)来满足不同场景的需求。

以上就是一些常见的模型评估方法,实际应用中可以根据具体问题和需求选择合适的评估指标。

七、总结与展望

在这部分,总结整个项目的过程,包括数据准备、模型构建、训练、优化和评估等。同时,讨论可能的改进方向和未来工作,例如尝试更多的模型结构、优化技巧等。

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
目录
相关文章
|
3天前
|
人工智能 自然语言处理 计算机视觉
StyleStudio:支持图像风格迁移的文生图模型,能将融合参考图像的风格和文本提示内容生成风格一致的图像
StyleStudio 是一种文本驱动的风格迁移模型,能够将参考图像的风格与文本提示内容融合。通过跨模态 AdaIN 机制、基于风格的分类器自由引导等技术,解决了风格过拟合、控制限制和文本错位等问题,提升了风格迁移的质量和文本对齐的准确性。
33 8
StyleStudio:支持图像风格迁移的文生图模型,能将融合参考图像的风格和文本提示内容生成风格一致的图像
|
8天前
|
机器学习/深度学习 人工智能
Leffa:Meta AI 开源精确控制人物外观和姿势的图像生成框架,在生成穿着的同时保持人物特征
Leffa 是 Meta 开源的图像生成框架,通过引入流场学习在注意力机制中精确控制人物的外观和姿势。该框架不增加额外参数和推理成本,适用于多种扩散模型,展现了良好的模型无关性和泛化能力。
50 11
Leffa:Meta AI 开源精确控制人物外观和姿势的图像生成框架,在生成穿着的同时保持人物特征
|
7月前
|
前端开发 计算机视觉
InstantStyle,无需训练,风格保留文生图
InstantStyle 是一个通用框架,它采用两种简单但有效的技术来实现风格和内容与参考图像的有效分离。
|
2月前
|
自然语言处理 资源调度 前端开发
前端大模型入门(四):不同文本分割器对比和效果展示-教你如何根据场景选择合适的长文本分割方式
本文详细介绍了五种Langchain文本分割器:`CharacterTextSplitter`、`RecursiveCharacterTextSplitter`、`TokenTextSplitter`、`MarkdownTextSplitter` 和 `LatexTextSplitter`,从原理、优缺点及适用场景等方面进行了对比分析,旨在帮助开发者选择最适合当前需求的文本分割工具,提高大模型应用的处理效率和效果。
218 1
|
5月前
|
机器学习/深度学习 人工智能 编解码
Midjourney应用场景、特点、生成图片带来影响
Midjourney应用场景、特点、生成图片带来影响
139 1
|
5月前
测试语雀图片嵌入表格(不用通过)
测试语雀图片嵌入表格(不用通过)
|
6月前
经验大分享:QML动态标注线
经验大分享:QML动态标注线
37 0
如何让ChatGPT学习销售过往文字稿,并自动分析话术的优缺点,然后修改?
产品特点、服务优势、目标客户需求和痛点、行业与市场的趋势变化、竞争对手的优劣势、销售场景的特点和要求、销售环境、销售氛围、时间、地点、客户情感需求、心理转态、个性特点、解决方案
336 0
如何让ChatGPT学习销售过往文字稿,并自动分析话术的优缺点,然后修改?
|
数据可视化 物联网
Threejs物联网,养殖场3D可视化(三)模型展示,轨道控制器设置,模型沿着路线运动,模型添加边框,自定义样式显示标签,点击模型获取信息
Threejs物联网,养殖场3D可视化(三)模型展示,轨道控制器设置,模型沿着路线运动,模型添加边框,自定义样式显示标签,点击模型获取信息
961 15
Threejs物联网,养殖场3D可视化(三)模型展示,轨道控制器设置,模型沿着路线运动,模型添加边框,自定义样式显示标签,点击模型获取信息

热门文章

最新文章