Medialbertina Pt Pt 900m
模型简介
基于DeBERTaV2架构的Bert系列编码器,专门针对欧洲葡萄牙语医疗领域优化的语言模型,通过对Albertina模型进行电子病历数据的继续预训练而得
模型特点
医疗领域专业化
基于葡萄牙最大公立医院260万份电子病历训练,专门针对医疗领域优化
欧洲葡萄牙语支持
专注于欧洲葡萄牙语变体,特别是医疗场景下的语言使用
性能提升
在命名实体识别和断言状态分类任务上超越基础模型,F1分数提升显著
大规模训练数据
使用超过1500万句子和3亿词元的真实医疗数据进行训练
模型能力
医疗文本理解
临床实体识别
医疗术语填充
电子病历处理
使用案例
临床信息抽取
症状识别
从临床文本中识别症状描述
F1分数0.832(NER任务)
药物剂量识别
识别处方中的药物和剂量信息
可准确填充药物剂量单位
医疗文本补全
临床记录补全
自动补全不完整的临床记录
如示例中所示可准确预测医疗术语
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98
智启未来,您的人工智能解决方案智库
简体中文