一种由自回归空白填充任务通用语言预训练模型支持的开放式对话上下文生成器。
根据开放领域对话生成的定义 Open-domain Dialogue Generation: What We Can Do, Cannot Do, And Should Do Next
Given zero or more previous dialogue turns between
itself and one or more other participants,
a system output a fluent, engaging,
and meaningful natural language response.
给出自身和一个或多个其他参与者之间的零个或多个先前对话轮次,
系统输出流畅、引人入胜且有意义的自然语言回复。
一个著名的处理此任务的模型是 DialoGPT,你可以在 Roxza DialoGPT space上尝试它。
你也可以查看我的svjack/Daliy-Dialogue 存储库,查看在这种任务上使用Bloom或GPT模型的效果。
由仓库 svjack/Daliy-Dialogue 中给出的模型生成的数据集展示:
名称 | HuggingFace 数据集链接 | HuggingFace 空间链接 | 语言 |
---|---|---|---|
英文每日对话模型生成例子 🦅🌸 | https://huggingface.co/datasets/svjack/bloom-dialogue-generate-ds-en | https://huggingface.co/spaces/svjack/bloom-dialogue-english-sample-search | English |
中文对话模型生成例子 🐰🌸 | https://huggingface.co/datasets/svjack/bloom-dialogue-generate-ds-zh | https://huggingface.co/spaces/svjack/bloom-gpt-dialogue-chinese-sample-search | Chinese |
下面是 DialoGPT and GLM 生成的对话上下文英文例子对比 (后者是此工程的工作)
模型 | 第一句话 | 生成的对话上下文 |
---|---|---|
DialoGPT | Does money buy happiness? | Depends how much money you spend on it. |
What is the best way to buy happiness ? | ||
You just have to be a millionaire by your early 20s, then you can be happy . | ||
This is so difficult ! | ||
You have no idea how hard it is to be a millionaire and happy . There is a reason the rich have a lot of money | ||
GLM | Does money buy happiness? | Can money buy happiness? |
Yes, what about you?That is happiness. | ||
Oh yeah! | ||
You will be happy. | ||
Oh, I got it.How are you happy? | ||
I think no. | ||
Everyone has different definitions of happiness, and money cannot buy happiness. | ||
DialoGPT | what is the meaning of life ? | The meaning is to be with your family and friends . |
I’m going to guess : It means that your parents and friends have loved you . That’s the meaning , I believe . | ||
I think the meaning is to make sure you’re alive when you die . So you’ll be with your family , friends , and yourself . | ||
It’s not , but thanks for trying to help . | ||
GLM | what is the meaning of life ? | You just like life, answer? |
of course is. | ||
Who said life itself? | ||
Does life have no meaning? | ||
Yes is. | ||
What do you like to do with me that is meaningful? | ||
Enjoy every moment of your life and feel meaningful. |
- 1 多语言展示: https://huggingface.co/spaces/svjack/GLM-Open-Dialogue
- 2 中文展示: https://huggingface.co/spaces/svjack/GLM-Open-Dialogue-Chinese
pip install -r req0.txt
pip install -r req1.txt
推荐使用gpu运行,如果有gpu,建议将下面文件 predict_t5_choose_simple.py 的第一行从
#### Run
#### pip install torch==1.8.0
device = "cpu"
变成
#### Run
#### replace by your cuda version.
#### pip install torch==1.8.0+cu111
device = "cuda:0"
之后
from main import *
#### 英文使用
##### max_times 从 2 改为 10 运行会花费更多时间,输出也更多
demo_func(*["Which keyboard do you prefer?", "en", 2])
demo_func(*["Which keyboard do you prefer?", "en", 10])
#### 日语使用
demo_func(*["東京と京都のどちらが住みやすいですか。", "ja", 2])
demo_func(*["東京と京都のどちらが住みやすいですか。", "ja", 10])
#### 中文使用
demo_func(*["程序员要掌握哪些技能", "zh", 5])
### 或者
generate_func(*["程序员要掌握哪些技能", 5])
generate_func(*["你对《三国演义》感兴趣吗?", 10])
generate_func(*["谁能让美国再一次伟大?", 10])
现有的一些模型通常在特定数据集上训练生成模型,这可能会受到数据集和预训练模型的限制。当面对广泛知识领域的开放域时,生成器可能会更容易出现“无意义问题”,即给出平淡无奇或缺乏生动感的回答。
该项目采用了一种无监督的组合方法来处理这些问题,并将其分解为四个步骤:
1 从头开始自行训练一个小数据集上的开放领域对话生成器,将其作为 “构建生成器”
2 使用FlagAI 的 GLM 作为 “知识生成器”
3 使用自我训练的 “上下文判别器” 来结合以上两个生成器。
4 使用自我训练的 “上下文重构器” 来重构语境。
对于“构建生成器”,准确率要求不高。
以上四个模型已在HuggingFace中发布,并在下表中列出。
它们都由中文语料构建,并使用facebook m2m_100_1.2B翻译模型使得它们支持多语言。
这个工程有4个Prompt作为切入点,来构建这个工程。
Prompt 种类 | 影响部分 | 概念来源 | Prompt 的对应英文格式 | Prompt 的对应中文格式 |
---|---|---|---|---|
面向填空问答的任务Prompt | GLM | build in GLM | Question: Is reading good for your grow up? Answer: [MASK] | 问题: 阅读对于成长有好处吗? 回答: [MASK] |
面向选择最优的任务Prompt | Context Discriminer | Bigscience-mt0 | According to the following context, choose the optimal follow-up sentence Context: {}\n{}Answer: | 根据如下上下文,选择最优的后续句子 上下文:{}\n{}答案: |
面向上下文重构成的任务Prompt | Context Reconstructor | Bigscience-mt0 | According to the following context, reconstruct the Context: {}\n{}Answer: | 根据下面的上下文进行分段: 上下文:{} 答案: |
过滤低质量内容的类似Prompt概念 | negative_prompts in predict_t5_choose_simple.py | Stable Diffusion | [Yes, I don't know, Who knows] | [是的,怎么知道] |
语言 | 第一句话 | 生成的对话上下文 |
---|---|---|
English | Which keyboard do you like? | My true love! |
My favorite mechanical keyboard! | ||
The mechanics.keyboard | ||
HP Mechanical Keyboard | ||
Of course a mechanical keyboard. | ||
I like the mechanical keyboard, though not the hippie mouse. | ||
I like it, but listen.Do you want? | ||
HP's mechanical keyboard is really useful, and the cost is very high, but | ||
Japanese | 東京と京都はどちらがいいですか? | はい。,..わからないけど、あなたはどうですか? |
京都! | ||
うん、確信がない。,..あなたはどうですか? | ||
京都に行くと東京は観光都市です。 | ||
誰もが京都よりはマシだと思っている。また、日本の都市 | ||
個人的には京都の方がお得だと思います。 | ||
知っている。あなたはエッフェル塔の頂上に行ったことがありますか? | ||
Chinese | 你对《三国演义》感兴趣吗? | 是的,我喜欢各种人物。你觉得怎么样? |
我觉得可以,因为太无聊了。我喜欢《三国演义》,但是没时间去看。 | ||
抖机灵,我喜欢历史,《三国志》。这些经典读起来不枯燥,有很强的吸引力,很适合初学者。 | ||
哦,我也喜欢历史。你有兴趣吗? | ||
看历史,我感兴趣。 | ||
毕竟,《三国志》是经典,但是要看清人物才能更好地理解人物性格。 |
这篇论文名为“Controllable Factuality in Document-Grounded Dialog Systems Using a
Noisy Channel Model”,作者来自UKPLab。
论文链接: https://arxiv.org/pdf/2210.17418.pdf
Github 链接: https://github.com/ndaheim/noisy_channel_model
它也是关于对话系统生成和"修复"的一些类似问题,但主要与我这个项目的区别在于:
如果你对这个更加学术化的工作感兴趣,我建议你试一试。
一个用于中文对话生成的样本数据集已经上传到 Huggingface Hub。GLM-Open-Dialogue-Chinese-samples
这个数据集中的问题是由抽取式问答构建的,在缺乏上下文的情况下回答起来有一些困难。如果你尝试其他问题(更难或更简单),输出结果可能会有所不同。
svjack - https://huggingface.co/svjack - svjackbt@gmail.com - ehangzhou@outlook.com
Project Link:https://github.com/svjack/GLM-Open-Dialogue