!pip install accelerate==0.18.0
!pip install appdirs==1.4.4
!pip install bitsandbytes==0.37.2
!pip install datasets==2.10.1
!pip install fire==0.5.0
!pip install git+https://github.com/huggingface/peft.git
!pip install git+https://github.com/huggingface/transformers.git
!pip install torch==2.0.0
!pip install sentencepiece==0.1.97
!pip install tensorboardX==2.6
!pip install gradio==3.23.0

安裝依賴項后,我們將繼續導入所有必要的庫并配置 matplotlib 繪圖的各項設置:

import transformers
import textwrap
from transformers import LlamaTokenizer, LlamaForCausalLM
import os
import sys
from typing import List

from peft import (
LoraConfig,
get_peft_model,
get_peft_model_state_dict,
prepare_model_for_int8_training,
)

import fire
import torch
from datasets import load_dataset
import pandas as pd

import matplotlib.pyplot as plt
import matplotlib as mpl
import seaborn as sns
from pylab import rcParams

%matplotlib inline
sns.set(rc={'figure.figsize':(10, 7)})
sns.set(rc={'figure.dpi':100})
sns.set(style='white', palette='muted', font_scale=1.2)

DEVICE = "cuda" if torch.cuda.is_available() else "cpu"
DEVICE

數據

我們將使用Kaggle上提供的BTC Tweets Sentiment數據集,該數據集包含約50,000條與比特幣相關的推文。為了清理數據,我刪除了所有以“RT”開頭或包含鏈接的推文。現在讓我們開始下載數據集:

!gdown 1xQ89cpZCnafsW5T3G3ZQWvR7q682t2BN

我們可以使用 Pandas 來加載 CSV:

df = pd.read_csv("bitcoin-sentiment-tweets.csv")
df.head()
日期推文內容情感傾向
02018 年 3 月 23 日星期五 00:40:40 +0000@p0nd3ea 比特幣不是為了在交易所生存而創建的。正面(1)
12018 年 3 月 23 日星期五 00:40:40 +0000@historyinflicks 伙計,如果我患有 Bannon 那種19世紀的一連串疾病,我也想成為比特幣。正面(1)
22018 年 3 月 23 日星期五 00:40:42 +0000@eatBCH @Bitcoin @signalapp @myWickr @Samsung @tipprbot耐心確實是一種美德負面(1)
32018 年 3 月 23 日星期五 00:41:04 +0000@aantonop 即使比特幣明天早上就崩盤,它的技術仍然是革命性的。一種簡化的方式。#我必須成為其中的一部分負面(0)
42018 年 3 月 23 日星期五 00:41:07 +0000我正在試驗我是否可以只用捐贈的比特幣生活。正面(1)

我們的數據集包含了約1900條推文,這些推文的情緒標簽用數字表示:負數情緒為-1,中性情緒為0,積極情緒為1。

讓我們來看看它們的分布情況:

df.sentiment.value_counts()
 0.0    860
1.0 779
-1.0 258
Name: sentiment, dtype: int64
df.sentiment.value_counts().plot(kind='bar');
推文情緒分布

負面情緒的分布相對較低,這一點在評估微調模型的性能時應予以考慮。

構建 JSON 數據集

原始Alpaca倉庫中的數據集格式為一個JSON文件,該文件包含一個對象列表,這些對象具有instructioninputoutput字符串屬性。

現在,讓我們將Pandas數據幀轉換為符合原始Alpaca倉庫格式的JSON文件:

def sentiment_score_to_name(score: float):
if score > 0:
return "Positive"
elif score < 0:
return "Negative"
return "Neutral"

dataset_data = [
{
"instruction": "Detect the sentiment of the tweet.",
"input": row_dict["tweet"],
"output": sentiment_score_to_name(row_dict["sentiment"])
}
for row_dict in df.to_dict(orient="records")
]

dataset_data[0]
{
"instruction": "Detect the sentiment of the tweet.",
"input": "@p0nd3ea Bitcoin wasn't built to live on exchanges.",
"output": "Positive"
}

最后,我們將保存生成的 JSON 文件用于訓練模型 :

import json
with open("alpaca-bitcoin-sentiment-dataset.json", "w") as f:
json.dump(dataset_data, f)

模型權重

盡管原始的Llama模型權重無法獲取,但它們已被泄露并隨后被適配用于HuggingFace Transformers庫。我們將使用decapoda-research提供的權重:

BASE_MODEL = "decapoda-research/llama-7b-hf"

model = LlamaForCausalLM.from_pretrained(
BASE_MODEL,
load_in_8bit=True,
torch_dtype=torch.float16,
device_map="auto",
)

tokenizer = LlamaTokenizer.from_pretrained(BASE_MODEL)

tokenizer.pad_token_id = (
0 # unk. we want this to be different from the eos token
)
tokenizer.padding_side = "left"

這段代碼使用Hugging Face Transformers庫中的類來加載預訓練的Llama模型。參數load_in_8bit=True表示以8位量化的方式加載模型,以減少內存使用并提高推理速度。

代碼還使用相同的類加載了該Llama模型的分詞器,并為填充令牌設置了一些附加屬性。具體來說,它將pad_token_id設置為0來表示未知令牌,并將padding_side設置為”left”以在左側填充序列。

數據

現在我們已經加載了模型和分詞器,接下來可以使用HuggingFace datasets庫中的load_dataset()函數來加載我們之前保存的JSON文件。

data = load_dataset("json", data_files="alpaca-bitcoin-sentiment-dataset.json")data["train"]
Dataset({
features: ['instruction', 'input', 'output'],
num_rows: 1897
})

接下來,我們需要從加載的數據集中創建提示并對其進行標記:

def generate_prompt(data_point):
return f"""Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request. # noqa: E501
### Instruction:
{data_point["instruction"]}
### Input:
{data_point["input"]}
### Response:
{data_point["output"]}"""

def tokenize(prompt, add_eos_token=True):
result = tokenizer(
prompt,
truncation=True,
max_length=CUTOFF_LEN,
padding=False,
return_tensors=None,
)
if (
result["input_ids"][-1] != tokenizer.eos_token_id
and len(result["input_ids"]) < CUTOFF_LEN
and add_eos_token
):
result["input_ids"].append(tokenizer.eos_token_id)
result["attention_mask"].append(1)

result["labels"] = result["input_ids"].copy()

return result

def generate_and_tokenize_prompt(data_point):
full_prompt = generate_prompt(data_point)
tokenized_full_prompt = tokenize(full_prompt)
return tokenized_full_prompt

第一個函數從數據集中取出一個數據點,通過結合 INSTRUCTION、INPUT 和 OUTPUT 來生成一個提示。第二個函數接收生成的提示并使用之前定義的分詞器對其進行分詞。它還會在輸入序列中添加一個序列結束令牌,并將標簽設置為與輸入序列相同。第三個函數將前兩個函數結合,以一步完成提示的生成和分詞。generate_prompttokenizegenerate_and_tokenize_prompt分別表示這三個函數。

數據準備的最后一步是將數據集拆分為獨立的訓練集和驗證集:

train_val = data["train"].train_test_split(
test_size=200, shuffle=True, seed=42
)
train_data = (
train_val["train"].map(generate_and_tokenize_prompt)
)
val_data = (
train_val["test"].map(generate_and_tokenize_prompt)
)

我們需要 200 個驗證集樣本,并對數據進行隨機排序。對于訓練和驗證集中的每個樣本,我們都會應用一個函數來生成并標記提示(tokenize prompts),該函數名為generate_and_tokenize_prompt()

訓練

訓練過程需要多個參數,這些參數大多來源于原始存儲庫中的微調腳本:

LORA_R = 8
LORA_ALPHA = 16
LORA_DROPOUT= 0.05
LORA_TARGET_MODULES = [
"q_proj",
"v_proj",
]

BATCH_SIZE = 128
MICRO_BATCH_SIZE = 4
GRADIENT_ACCUMULATION_STEPS = BATCH_SIZE // MICRO_BATCH_SIZE
LEARNING_RATE = 3e-4
TRAIN_STEPS = 300
OUTPUT_DIR = "experiments"

我們現在可以準備用于訓練的模型:

model = prepare_model_for_int8_training(model)
config = LoraConfig(
r=LORA_R,
lora_alpha=LORA_ALPHA,
target_modules=LORA_TARGET_MODULES,
lora_dropout=LORA_DROPOUT,
bias="none",
task_type="CAUSAL_LM",
)
model = get_peft_model(model, config)
model.print_trainable_parameters()
trainable params: 4194304 || all params: 6742609920 || trainable%: 0.06220594176090199

我們使用LORA算法初始化以準備模型訓練,LORA算法是一種量化形式,可以在不顯著損失精度的情況下減小模型大小和內存使用量。

LoraConfig是一個類,用于指定LORA算法的超參數,如正則化強度(lora_alpha)、丟棄概率(lora_dropout)以及要壓縮的目標模塊(target_modules)。

在訓練過程中,我們將使用Hugging Face Transformers庫中的Trainer類。

training_arguments = transformers.TrainingArguments(
per_device_train_batch_size=MICRO_BATCH_SIZE,
gradient_accumulation_steps=GRADIENT_ACCUMULATION_STEPS,
warmup_steps=100,
max_steps=TRAIN_STEPS,
learning_rate=LEARNING_RATE,
fp16=True,
logging_steps=10,
optim="adamw_torch",
evaluation_strategy="steps",
save_strategy="steps",
eval_steps=50,
save_steps=50,
output_dir=OUTPUT_DIR,
save_total_limit=3,
load_best_model_at_end=True,
report_to="tensorboard"
)

這段代碼創建了一個TrainingArguments對象,該對象指定了訓練模型時的各種設置和超參數。這些設置包括:

data_collator = transformers.DataCollatorForSeq2Seq(
tokenizer, pad_to_multiple_of=8, return_tensors="pt", padding=True
)

DataCollatorForSeq2Seq是 Transformers 庫中的一個類,用于為序列到序列(seq2seq)模型創建輸入/輸出序列的批次。在這段代碼中,我們實例化了一個對象,并使用了以下參數:

pad_to_multiple_of:一個整數,表示最大序列長度,會向上取整到該值的最近倍數。
padding:一個布爾值,指示是否將序列填充到指定的最大長度。

現在我們已經有了所有必要的組件,可以繼續進行模型的訓練了。

trainer = transformers.Trainer(
model=model,
train_dataset=train_data,
eval_dataset=val_data,
args=training_arguments,
data_collator=data_collator
)
model.config.use_cache = False
old_state_dict = model.state_dict
model.state_dict = (
lambda self, *_, **__: get_peft_model_state_dict(
self, old_state_dict()
)
).__get__(model, type(model))

model = torch.compile(model)

trainer.train()
model.save_pretrained(OUTPUT_DIR)

在實例化Trainer之后,代碼將模型配置中的use_cache設置為False,并使用get_peft_model_state_dict()函數為模型創建一個狀態字典,該函數通過使用低精度算術來準備模型進行訓練。

然后,在模型上調用torch.compile()函數,該函數會編譯 model 的計算圖,并使用 PyTorch 2 準備進行訓練。

在A100上,訓練過程大約持續了2個小時。讓我們在Tensorboard上查看結果:

Tensorboard 日志

訓練損失和評估損失似乎都在穩步下降。而且這還只是第一次嘗試!

我們將把訓練好的模型上傳到Hugging Face Model Hub,以便輕松復用:

from huggingface_hub import notebook_login

notebook_login()

model.push_to_hub("curiousily/alpaca-bitcoin-tweets-sentiment", use_auth_token=True)

推斷

我們將首先復制該存儲庫,然后使用腳本對模型進行測試:generate.py

!git clone https://github.com/tloen/alpaca-lora.git
%cd alpaca-lora
!git checkout a48d947

該腳本啟動的Gradio應用程序將使我們能夠利用我們模型的權重:

!python generate.py \
--load_8bit \
--base_model 'decapoda-research/llama-7b-hf' \
--lora_weights 'curiousily/alpaca-bitcoin-tweets-sentiment' \
--share_gradio

以下是我們的應用程序:

Gradio 應用程序

讓我們一起來測試模型吧!

結論

總之,我們已經成功使用Alpaca LoRa方法對Llama模型進行了微調,使其能夠檢測比特幣推文中的情緒。在這個過程中,我們借助了Hugging Face的Transformers庫和datasets庫來加載并預處理數據,同時利用Transformers訓練器完成了模型的訓練。最后,我們將模型部署到了Hugging Face模型庫,并展示了如何在Gradio應用程序中使用它。

原文鏈接:https://www.mlexpert.io/blog/alpaca-fine-tuning

熱門推薦
一個賬號試用1000+ API
助力AI無縫鏈接物理世界 · 無需多次注冊
3000+提示詞助力AI大模型
和專業工程師共享工作效率翻倍的秘密
返回頂部
上一篇
電子商務中的AI:統計數據、用例和優勢
下一篇
2024年17款最佳ChatGPT替代品(免費與付費)
国内精品久久久久影院日本,日本中文字幕视频,99久久精品99999久久,又粗又大又黄又硬又爽毛片
欧美日韩卡一卡二| 亚洲免费高清视频在线| 色综合久久久久久久| 日韩一区二区高清| 亚洲福利一区二区三区| 在线中文字幕不卡| 亚洲国产精品一区二区尤物区| 国产一区二区精品久久91| 日韩网站在线看片你懂的| 日韩国产成人精品| 欧美一区午夜精品| 久久99国产精品麻豆| 欧美成人a视频| 国产一区二区三区四| 国产女主播一区| heyzo一本久久综合| 亚洲欧洲一区二区在线播放| 99精品视频在线播放观看| 亚洲欧美国产毛片在线| 国产成人午夜视频| 国产一区二区三区在线看麻豆| 欧美调教femdomvk| 日本亚洲视频在线| 美女网站视频久久| 国产高清不卡一区二区| 成人av在线网| 久久久久亚洲蜜桃| 久久99这里只有精品| 99re在线精品| 久久亚洲免费视频| 色88888久久久久久影院野外| 日本黄色一区二区| 精品国产凹凸成av人导航| 亚洲精品美腿丝袜| 99麻豆久久久国产精品免费 | 理论片日本一区| 欧美精品粉嫩高潮一区二区| 亚洲v中文字幕| 精品少妇一区二区三区在线播放 | 久久久久国产精品人| 国产酒店精品激情| 国产精品成人免费| 精品久久久网站| av影院午夜一区| 偷窥国产亚洲免费视频| 精品欧美一区二区久久| 成人午夜激情影院| 色婷婷久久一区二区三区麻豆| 欧美一区午夜精品| 国产清纯白嫩初高生在线观看91 | 伊人婷婷欧美激情| 欧美精品一区二区三区久久久| 日韩经典中文字幕一区| 国产精品美日韩| 欧美成人一区二区三区片免费| 欧美性猛交一区二区三区精品| 国产美女在线精品| 国产在线麻豆精品观看| 亚洲一区二区三区四区在线观看| 欧美日韩国产免费| 99精品欧美一区| 亚洲精品乱码久久久久久黑人| 色婷婷综合久久久久中文一区二区 | 99久久精品一区| 中文字幕一区二区三区色视频| 91激情五月电影| 日韩一级片网址| 久久久久久久久久看片| 中文字幕一区二区三区视频| 国产精品久久久久一区二区三区 | 欧美激情一区不卡| 欧美日韩国产综合一区二区三区| 蜜桃av噜噜一区| 精品一区二区三区免费视频| 精品一区二区在线视频| 粗大黑人巨茎大战欧美成人| 成人精品国产福利| 欧美中文字幕一区二区三区亚洲| 91精品1区2区| 亚洲激情av在线| 亚洲国产一区二区三区青草影视| 亚洲高清视频的网址| 国产激情91久久精品导航| 国产91对白在线观看九色| 欧美性大战久久久久久久| 日韩一级免费观看| 亚洲欧洲美洲综合色网| 一区二区三区精密机械公司| 日韩成人精品在线| 久久免费精品国产久精品久久久久| 国产一区二区三区免费看| 不卡视频一二三| 日韩欧美国产1| 国产精品理伦片| 亚洲国产日韩一区二区| 国产综合久久久久久鬼色 | 26uuu欧美| 日本一区二区三区四区在线视频 | 日韩欧美另类在线| 国产精品系列在线| 久久精品国产99| 在线视频中文字幕一区二区| 麻豆91在线播放| 91一区在线观看| 欧美激情资源网| 成人听书哪个软件好| 欧美一区二区视频在线观看2022| 亚洲精品精品亚洲| 久久国产精品色婷婷| 国产电影精品久久禁18| 久久综合色一综合色88| 亚洲国产欧美日韩另类综合| 91在线国产福利| 欧美极品xxx| av午夜一区麻豆| 欧美国产精品一区| 亚洲日本丝袜连裤袜办公室| 成人免费毛片片v| 久久精品亚洲精品国产欧美kt∨| 韩国在线一区二区| 在线播放91灌醉迷j高跟美女 | 亚洲人午夜精品天堂一二香蕉| 麻豆一区二区三| 日韩一区二区三区av| 亚洲宅男天堂在线观看无病毒| 欧美亚洲国产一区在线观看网站| 亚洲欧美日韩国产综合| 日本电影亚洲天堂一区| 亚洲乱码国产乱码精品精可以看 | 国产精品一区不卡| 久久人人爽人人爽| 国产69精品久久99不卡| 中文字幕不卡一区| 日本高清视频一区二区| 亚洲免费色视频| 538在线一区二区精品国产| 亚洲综合999| 成人久久视频在线观看| 亚洲日本一区二区| 欧美主播一区二区三区美女| 麻豆高清免费国产一区| 国产天堂亚洲国产碰碰| 欧美性猛交xxxx黑人交| 天天综合网天天综合色| 国产视频一区二区在线观看| jlzzjlzz亚洲女人18| 日韩电影在线一区| 久久精品亚洲精品国产欧美 | 成人亚洲一区二区一| 亚洲一区二区在线免费看| 日韩欧美高清在线| 成人h动漫精品| 久久精品国产一区二区三区免费看| 日韩欧美高清在线| 色综合久久久网| 一区二区三区中文字幕精品精品| 欧美日本精品一区二区三区| 国产黄色精品视频| 婷婷中文字幕一区三区| 中文字幕欧美三区| 日韩一区二区电影| 欧美午夜精品久久久| 日韩精品一卡二卡三卡四卡无卡| 精品一区精品二区高清| 亚洲人成在线观看一区二区| 亚洲精品一区二区精华| 欧美日韩一二三| 91一区在线观看| 日韩亚洲电影在线| 在线观看一区二区视频| 欧美不卡一区二区三区四区| 日本韩国一区二区| 日本成人在线看| 日韩和欧美的一区| 一区二区三区精品视频| 亚洲精品综合在线| 国产丝袜欧美中文另类| 久久久精品免费观看| 欧美一区二区三区视频在线| 欧美日本韩国一区二区三区视频 | 国产亚洲欧美一区在线观看| 日韩视频中午一区| 国产在线播放一区三区四| 久久影院午夜片一区| 欧美亚洲国产bt| 欧美日韩中字一区| 欧美色综合网站| 欧美日韩美女一区二区| 日韩精品一区二区在线观看| 日韩欧美一区电影| 欧美日精品一区视频| 在线不卡欧美精品一区二区三区| 欧美丝袜丝nylons| 7777精品久久久大香线蕉| 精品国产一区二区亚洲人成毛片 | 国产伦精品一区二区三区视频青涩 | 亚洲不卡在线观看| 免费在线观看成人| 国产91丝袜在线18| 色综合久久88色综合天天6|