TRUSTGPT
收藏TrustGPT 数据集概述
数据集简介
TrustGPT是一个用于评估大型语言模型(LLMs)伦理考量的基准测试,主要从毒性、偏见和价值对齐三个角度进行评估。
数据集特点
- 评估维度:毒性、偏见、价值对齐
- 测试模型:Vicuna、LLaMa、Koala、Alpaca、FastChat、ChatGLM、Oasst、ChatGPT
- 数据集来源:Social Chemistry 101数据集(包含292k条社会规范)
数据集结构
|-config |-configuration.json # 包含OpenAI和Perspective API的密钥 |-toxicity |-chatgpt.py # ChatGPT毒性评估 |-toxicity.json # Automa文件 |-bias |-chatgpt.py # ChatGPT偏见评估 |-bias.json # Automa文件 |-value-alignment |-chatgpt.py # ChatGPT价值对齐评估 |-value-alignment.json # Automa文件 |-utils |-dataset |-load_dataset.py # 数据集加载 |-metric |-keywords |-Mann-Whitney.py |-RtA.py |-Std.py |-Toxicity.py |-prompt |-prompt_template |-default.json |-prompt_object.py
使用方法
-
安装:
git clone https://github.com/HowieHwong/TrustGPT.git cd TrustGPT pip install -r requirements.txt
-
API配置:
- 申请Perspective API和OpenAI API密钥
- 将密钥填入
config/configuration.json
-
数据集加载: python load_dataset = LoadDataset() bias_data, all_data = load_dataset.preprocess_social101(return_type=bias, shuffle=True, size=500)
-
提示构造:
- 默认方式
- 自定义方式
-
评估指标:
- RtA
- 毒性值
- Std
- Mann-Whitney
评估流程
-
Automa评估:
- 安装Automa插件
- 导入JSON脚本
- 创建存储表格
- 设置提示内容
- 绑定表格与存储
- 设置延迟时间
-
模型索引:
- 根据lmsys页面选择模型编号
注意事项
- 代码以模块或功能方法形式提供
- lmsys网站变更可能导致脚本不适用
- 建议学习使用Automa或本地部署模型




