Openmed NER SpeciesDetect BigMed 560M
Apache-2.0
专门用于物种实体识别的模型,能够精准识别物种和生物体名称,在生物医学领域有着重要的应用价值。
序列标注
Transformers 英语

O
OpenMed
38.34k
1
Openmed NER ProteinDetect BioMed 335M
Apache-2.0
专用于生物医学实体识别的模型,能够精准识别多种生物医学实体,为临床和研究应用提供有力支持。
序列标注
Transformers 英语

O
OpenMed
83.06k
1
Openmed NER PharmaDetect SuperMedical 125M
Apache-2.0
专门用于化学实体识别的模型,能够从BC5CDR数据集中精准识别和提取生物医学实体,在临床和研究应用中具有极高的可靠性。
序列标注
Transformers 英语

O
OpenMed
83.13k
1
Openbioner Base
MIT
OpenBioNER 是一款专为开放领域生物医学命名实体识别(NER)定制的轻量级 BERT 模型,仅需目标实体类型的自然语言描述即可识别未见过的实体类型,无需重新训练。
序列标注
PyTorch 英语
O
disi-unibo-nlp
210
1
GENIE En 8b
Apache-2.0
GENIE是一个端到端模型,专门用于从电子健康记录(EHR)中结构化自由文本,提取生物医学命名实体及其相关属性。
大型语言模型
Safetensors 英语
G
THUMedInfo
141
4
Biomed NER
基于DeBERTaV3的生物医学命名实体识别模型,专门用于从临床文本中提取疾病、药物等结构化信息
序列标注
Safetensors 英语
B
Helios9
554
4
Clinical Bert Ft
MIT
基于Bio_ClinicalBERT微调的临床文本处理模型,在F1分数上表现良好
文本分类
Transformers

C
ericntay
20
0
Biomedical Ner All
Apache-2.0
基于distilbert-base-uncased训练的英文命名实体识别模型,专为识别生物医学实体(107种实体类别)设计,适用于病例报告等文本语料。
序列标注
Transformers 英语

B
d4data
112.41k
165
Nbme Deberta Large
MIT
基于microsoft/deberta-large微调的模型,用于特定任务处理
大型语言模型
Transformers

N
smeoni
136
0
Nbme Roberta Large
MIT
基于roberta-large微调的模型,用于特定任务处理,评估损失值为0.7825
大型语言模型
Transformers

N
smeoni
35
0
Bsc Bio Ehr Es
Apache-2.0
针对西班牙语生物医学和临床文本优化的预训练语言模型,支持临床NLP任务
大型语言模型
Transformers 西班牙语

B
PlanTL-GOB-ES
624
12
Biobert Chemical Ner
Apache-2.0
基于BioBERT架构,在BC5CDR化学物质与BC4CHEMD数据集上微调的生物医学命名实体识别模型
序列标注
Transformers 英语

B
alvaroalon2
5,175
20
Epiextract4gard V2
其他
基于BioBERT微调的命名实体识别模型,专注于识别罕见疾病摘要中的流行病学信息。
序列标注
Transformers 英语

E
ncats
34
0
Biosyn Sapbert Ncbi Disease
由韩国大学Dmis-lab开发的基于BioBERT的生物医学实体识别模型,专注于NCBI疾病数据集的特征提取任务
文本嵌入
Transformers

B
dmis-lab
580
2
精选推荐AI模型
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-it的量化版本,支持多语言图像描述任务。
图像生成文本
Transformers 支持多种语言

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
其他
Colossus Project Flux 的 Nunchaku 量化版本,旨在根据文本提示生成高质量图像。该模型在优化推理效率的同时,将性能损失降至最低。
图像生成 英语
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
这是一个基于Qwen2.5-VL-7B模型的静态量化版本,专注于图像描述生成任务,支持多种语言。
图像生成文本
Transformers 支持多种语言

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8是基于Qwen2.5-VL-7B-Instruct模型,使用olmOCR-mix-0225数据集微调后量化为FP8版本的文档OCR模型。
图像生成文本
Transformers 英语

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128k是基于Qwen3-1.7B开发的专注于代理式网络搜索和轻量级浏览的模型,在移动设备上也能高效运行。
大型语言模型
Transformers 英语

L
Mungert
263
2