🚀 T5-Base 职位描述转简历 JSON
本模型对 google/t5-base 进行微调,可将职位描述转换为结构化的简历 JSON 数据。
🚀 快速开始
使用以下代码开始使用该模型。
点击展开
from transformers import T5Tokenizer, T5ForConditionalGeneration
def load_model_and_tokenizer(model_path):
"""
Load the tokenizer and model from the specified path.
"""
tokenizer = T5Tokenizer.from_pretrained("google-t5/t5-base")
model = T5ForConditionalGeneration.from_pretrained(model_path)
return tokenizer, model
def generate_text(prompt, tokenizer, model):
"""
Generate text using the model based on the given prompt.
"""
input_ids = tokenizer(prompt, return_tensors="pt", padding=True).input_ids
outputs = model.generate(input_ids, max_length=512, num_return_sequences=1)
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
return generated_text
def main():
model_path = "nakamoto-yama/t5-resume-generation"
print(f"Loading model and tokenizer from {model_path}")
tokenizer, model = load_model_and_tokenizer(model_path)
while True:
prompt = input("Enter a job description or title: ")
if prompt.lower() == 'exit':
break
response = generate_text(f"generate resume JSON for the following job: {prompt}", tokenizer, model)
response = response.replace("LB>", "{").replace("RB>", "}")
print(f"Generated Response: {response}")
if __name__ == "__main__":
main()
更多示例请参阅 Hugging Face T5 文档以及模型开发者创建的 Colab 笔记本。
✨ 主要特性
- 基于 T5-base 架构,在 10,000 个职位描述与简历对的数据集上进行微调。
- 可将职位描述作为输入,生成针对该职位的简历 JSON 表示。
📚 详细文档
模型描述
本模型基于 T5-base 架构,在包含 10,000 个职位描述与简历对的数据集上进行了微调。它以职位描述为输入,生成针对该职位的简历的 JSON 表示。
属性 |
详情 |
模型类型 |
基于 T5-base 架构微调的文本到 JSON 转换模型 |
训练数据 |
10,000 个职位描述与简历对 |
预期用途与局限性
预期用途:
- 从职位描述生成结构化的简历数据。
- 协助求职者根据特定职位发布定制简历。
- 自动化部分简历创建过程。
局限性:
- 模型的输出质量取决于输入职位描述的详细程度和清晰度。
- 生成的简历可能需要人工审核和编辑。
- 模型可能无法捕捉细微或特定行业的要求。
- 模型未进行分词以输出 “{” 或 “}”,而是分别使用 “RB>” 和 “LB>”。
训练数据
该模型在 10,000 对职位描述和相应的简历 JSON 数据上进行了训练。训练集中的数据分布和任何潜在偏差未作具体说明。
训练过程
该模型使用标准的 T5 文本到文本框架进行微调。具体的超参数和训练细节未提供。
伦理考量
此模型自动化了部分简历创建过程,这可能对求职和招聘实践产生影响。用户应意识到训练数据中可能存在的偏差,这些偏差可能会影响生成的简历。
额外信息
有关基础 T5 模型的更多详细信息,请参阅 T5 论文 和 google/t5-base 模型卡片。
📄 许可证
本项目采用 MIT 许可证。