这是一个从cross-encoder/msmarco-MiniLM-L6-en-de-v1微调而来的交叉编码器模型,使用sentence-transformers库在csv数据集上进行训练。它计算文本对的分数,可用于文本重新排序和语义搜索。
下载量 20
发布时间 : 4/21/2025
模型介绍
内容详情
替代品
模型简介
该模型主要用于计算文本对的相似度分数,适用于文本重新排序和语义搜索任务。
模型特点
高效的文本对评分
能够快速计算两个文本之间的相关性分数,适用于大规模文本排序任务。
微调优化
基于msmarco-MiniLM-L6-en-de-v1模型进行微调,在特定任务上表现更优。
支持长文本
最大序列长度为512个标记,能够处理较长的文本内容。
模型能力
文本相似度计算
语义搜索
文本重新排序
使用案例
信息检索
搜索结果排序
对搜索引擎返回的结果进行相关性排序,提高搜索结果质量。
在验证集上达到0.8247的皮尔逊相关系数
推荐系统
内容匹配推荐
计算用户查询与推荐内容之间的相关性,提高推荐准确率。
标签:
- 句子转换器
- 交叉编码器
- 训练生成
- 数据集大小:17639
- 损失函数:二元交叉熵损失 基础模型: cross-encoder/msmarco-MiniLM-L6-en-de-v1 管道标签: 文本排序 库名称: sentence-transformers 指标:
- 皮尔逊系数
- 斯皮尔曼系数 模型索引:
- 名称: 基于cross-encoder/msmarco-MiniLM-L6-en-de-v1的交叉编码器
结果:
- 任务:
类型: 交叉编码器相关性
名称: 交叉编码器相关性
数据集:
名称: onet验证集
类型: onet-validation
指标:
- 类型: 皮尔逊系数 值: 0.8246902137614378 名称: 皮尔逊
- 类型: 斯皮尔曼系数 值: 0.8073346678301418 名称: 斯皮尔曼
- 类型: 皮尔逊系数 值: 0.8080619777425957 名称: 皮尔逊
- 类型: 斯皮尔曼系数 值: 0.7875635794780041 名称: 斯皮尔曼
- 任务:
类型: 交叉编码器相关性
名称: 交叉编码器相关性
数据集:
名称: onet验证集
类型: onet-validation
指标:
基于cross-encoder/msmarco-MiniLM-L6-en-de-v1的交叉编码器
这是一个从cross-encoder/msmarco-MiniLM-L6-en-de-v1微调而来的交叉编码器模型,使用sentence-transformers库在csv数据集上进行训练。它计算文本对的分数,可用于文本重新排序和语义搜索。
模型详情
模型描述
- 模型类型: 交叉编码器
- 基础模型: cross-encoder/msmarco-MiniLM-L6-en-de-v1
- 最大序列长度: 512个标记
- 输出标签数量: 1个标签
- 训练数据集:
- csv
模型来源
- 文档: Sentence Transformers文档
- 文档: 交叉编码器文档
- 仓库: GitHub上的Sentence Transformers
- Hugging Face: Hugging Face上的交叉编码器
使用方法
直接使用(Sentence Transformers)
首先安装Sentence Transformers库:
pip install -U sentence-transformers
然后可以加载此模型并运行推理。
from sentence_transformers import CrossEncoder
# 从🤗 Hub下载
model = CrossEncoder("cross_encoder_model_id")
# 获取文本对的分数
pairs = [
['首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。', "指导或协调组织的财务或预算活动,以资助运营、最大化投资或提高效率。"],
['首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。', '与董事会成员、组织官员或工作人员讨论问题、协调活动或解决问题。'],
['首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。', '准备预算以供批准,包括资助或实施项目的预算。'],
['首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。', '指导、计划或实施组织或企业的政策、目标或活动,以确保持续运营、最大化投资回报或提高生产力。'],
['首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。', '准备或提交关于活动、支出、预算、政府法规或其他影响业务或项目服务的报告。'],
]
scores = model.predict(pairs)
print(scores.shape)
# (5,)
# 或根据与单个文本的相似性对不同的文本进行排序
ranks = model.rank(
'首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。',
[
"指导或协调组织的财务或预算活动,以资助运营、最大化投资或提高效率。",
'与董事会成员、组织官员或工作人员讨论问题、协调活动或解决问题。',
'准备预算以供批准,包括资助或实施项目的预算。',
'指导、计划或实施组织或企业的政策、目标或活动,以确保持续运营、最大化投资回报或提高生产力。',
'准备或提交关于活动、支出、预算、政府法规或其他影响业务或项目服务的报告。',
]
)
# [{'corpus_id': ..., 'score': ...}, {'corpus_id': ..., 'score': ...}, ...]
评估
指标
交叉编码器相关性
- 数据集:
onet-validation
- 使用
CrossEncoderCorrelationEvaluator
评估
指标 | 值 |
---|---|
皮尔逊系数 | 0.8247 |
斯皮尔曼系数 | 0.8073 |
交叉编码器相关性
- 数据集:
onet-validation
- 使用
CrossEncoderCorrelationEvaluator
评估
指标 | 值 |
---|---|
皮尔逊系数 | 0.8081 |
斯皮尔曼系数 | 0.7876 |
训练详情
训练数据集
csv
- 数据集: csv
- 大小: 17,639个训练样本
- 列:
query
,task
, 和score
- 基于前1000个样本的近似统计:
query task score 类型 字符串 字符串 浮点数 详情 - 最小: 105个字符
- 平均: 235.78个字符
- 最大: 562个字符
- 最小: 20个字符
- 平均: 103.24个字符
- 最大: 317个字符
- 最小: 0.42
- 平均: 0.8
- 最大: 0.98
- 样本:
query task score 首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。
指导或协调组织的财务或预算活动,以资助运营、最大化投资或提高效率。
0.8242
首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。
与董事会成员、组织官员或工作人员讨论问题、协调活动或解决问题。
0.84055
首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。
准备预算以供批准,包括资助或实施项目的预算。
0.89705
- 损失函数:
BinaryCrossEntropyLoss
参数如下:{ "activation_fn": "torch.nn.modules.linear.Identity", "pos_weight": null }
评估数据集
csv
- 数据集: csv
- 大小: 1,764个评估样本
- 列:
query
,task
, 和score
- 基于前1000个样本的近似统计:
query task score 类型 字符串 字符串 浮点数 详情 - 最小: 105个字符
- 平均: 235.78个字符
- 最大: 562个字符
- 最小: 20个字符
- 平均: 103.24个字符
- 最大: 317个字符
- 最小: 0.42
- 平均: 0.8
- 最大: 0.98
- 样本:
query task score 首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。
指导或协调组织的财务或预算活动,以资助运营、最大化投资或提高效率。
0.8242
首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。
与董事会成员、组织官员或工作人员讨论问题、协调活动或解决问题。
0.84055
首席执行官:确定并制定政策,并在董事会或类似管理机构设定的指导方针内,为私营和公共部门的公司或组织提供总体方向。在最高管理层计划、指导或协调运营活动,借助下属高管和部门经理。
准备预算以供批准,包括资助或实施项目的预算。
0.89705
- 损失函数:
BinaryCrossEntropyLoss
参数如下:{ "activation_fn": "torch.nn.modules.linear.Identity", "pos_weight": null }
训练超参数
非默认超参数
eval_strategy
: stepsnum_train_epochs
: 4warmup_ratio
: 0.1bf16
: True
所有超参数
点击展开
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: stepsprediction_loss_only
: Trueper_device_train_batch_size
: 8per_device_eval_batch_size
: 8per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 5e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 4max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Truefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}tp_size
: 0fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Nonehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseinclude_for_metrics
: []eval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falseaverage_tokens_across_devices
: Falseprompts
: Nonebatch_sampler
: batch_samplermulti_dataset_batch_sampler
: proportional
训练日志
点击展开
周期 | 步数 | 训练损失 | 验证损失 | onet-validation_spearman |
---|---|---|---|---|
-1 | -1 | - | - | 0.0090 |
0.0091 | 20 | 1.2693 | - | - |
0.0181 | 40 | 1.3548 | - | - |
0.0272 | 60 | 1.0328 | - | - |
0.0363 | 80 | 0.9504 | 0.8379 | 0.0108 |
0.0454 | 100 | 0.9183 | - | - |
0.0544 | 120 | 0.697 | - | - |
0.0635 | 140 | 0.625 | - | - |
0.0726 | 160 | 0.5337 | 0.5489 | 0.0368 |
0.0816 | 180 | 0.5008 | - | - |
0.0907 | 200 | 0.4894 | - | - |
0.0998 | 220 | 0.5352 | - | - |
0.1088 | 240 | 0.4994 | 0.5040 | 0.0981 |
0.1179 | 260 | 0.4857 | - | - |
0.1270 | 280 | 0.5122 | - | - |
0.1361 | 300 | 0.517 | - | - |
0.1451 | 320 | 0.5156 | 0.4994 | 0.1470 |
0.1542 | 340 | 0.4859 | - | - |
0.1633 | 360 | 0.4842 | - | - |
0.1723 | 380 | 0.5138 | - | - |
0.1814 | 400 | 0.5142 | 0.5011 | 0.1403 |
0.1905 | 420 | 0.4948 | - | - |
0.1995 | 440 | 0.499 | - | - |
0.2086 | 460 | 0.4732 | - | - |
0.2177 | 480 | 0.5066 | 0.5007 | 0.1681 |
0.2268 | 500 | 0.5014 | - | - |
0.2358 | 520 | 0.4819 | - | - |
0.2449 | 540 | 0.4937 | - | - |
0.2540 | 560 | 0.5056 | 0.4974 | 0.2359 |
0.2630 | 580 | 0.4986 | - | - |
0.2721 | 600 | 0.5066 | - | - |
0.2812 | 620 | 0.4776 | - | - |
0.2902 | 640 | 0.4845 | 0.5024 | 0.2607 |
0.2993 | 660 | 0.4991 | - | - |
0.3084 | 680 | 0.5034 | - | - |
0.3175 | 700 | 0.4655 | - | - |
0.3265 | 720 | 0.5191 | 0.5107 | 0.2969 |
0.3356 | 740 | 0.509 | - | - |
0.3447 | 760 | 0.484 | - | - |
0.3537 | 780 | 0.5113 | - | - |
0.3628 | 800 | 0.4968 | 0.4966 | 0.3645 |
0.3719 | 820 | 0.4713 | - | - |
0.3810 | 840 | 0.507 | - | - |
0.3900 | 860 | 0.5041 | - | - |
0.3991 | 880 | 0.4868 | 0.4953 | 0.3896 |
0.4082 | 900 | 0.4985 | - | - |
0.4172 | 920 | 0.477 | - | - |
0.4263 | 940 | 0.4888 | - | - |
0.4354 | 960 | 0.4791 | 0.4916 | 0.4280 |
0.4444 | 980 | 0.4969 | - | - |
0.4535 | 1000 | 0.4757 | - | - |
0.4626 | 1020 | 0.4978 | - | - |
0.4717 | 1040 | 0.4998 | 0.4966 | 0.4299 |
0.4807 | 1060 | 0.5062 | - | - |
0.4898 | 1080 | 0.4876 | - | - |
0.4989 | 1100 | 0.4836 | - | - |
0.5079 | 1120 | 0.5034 | 0.4908 | 0.4404 |
0.5170 | 1140 | 0.4788 | - | - |
0.5261 | 1160 | 0.5037 | - | - |
0.5351 | 1180 | 0.467 | - | - |
0.5442 | 1200 | 0.4785 | 0.4942 | 0.4701 |
0.5533 | 1220 | 0.502 | - | - |
0.5624 | 1240 | 0.5223 | - | - |
0.5714 | 1260 | 0.4755 | - | - |
0.5805 | 1280 | 0.4826 | 0.4888 | 0.4685 |
0.5896 | 1300 | 0.493 | - | - |
0.5986 | 1320 | 0.4935 | - | - |
0.6077 | 1340 | 0.4851 | - | - |
0.6168 | 1360 | 0.4884 | 0.4908 | 0.5028 |
0.6259 | 1380 | 0.4966 | - | - |
0.6349 | 1400 | 0.4769 | - | - |
0.6440 | 1420 | 0.4965 | - | - |
0.6531 | 1440 | 0.492 | 0.4869 | 0.5234 |
0.6621 | 1460 | 0.487 | - | - |
0.6712 | 1480 | 0.5045 | - | - |
0.6803 | 1500 | 0.4638 | - | - |
0.6893 | 1520 | 0.4622 | 0.4874 | 0.5281 |
0.6984 | 1540 | 0.468 | - | - |
0.7075 | 1560 | 0.4627 | - | - |
0.7166 | 1580 | 0.4892 | - | - |
0.7256 | 1600 | 0.5044 | 0.4885 | 0.5219 |
0.7347 | 1620 | 0.4941 | - | - |
0.7438 | 1640 | 0.4857 | - | - |
0.7528 | 1660 | 0.497 | - | - |
0.7619 | 1680 | 0.5007 | 0.4925 | 0.5146 |
0.7710 | 1700 | 0.5038 | - | - |
0.7800 | 1720 | 0.4702 | - | - |
0.7891 | 1740 | 0.4754 | - | - |
0.7982 | 1760 | 0.4852 | 0.4874 | 0.5402 |
0.8073 | 1780 | 0.4858 | - | - |
0.8163 | 1800 | 0.493 | - | - |
0.8254 | 1820 | 0.4802 | - | - |
0.8345 | 1840 | 0.4905 | 0.4865 | 0.5370 |
0.8435 | 1860 | 0.5 | - | - |
0.8526 | 1880 | 0.4888 | - | - |
0.8617 | 1900 | 0.4764 | - | - |
0.8707 | 1920 | 0.4647 | 0.4885 | 0.5100 |
0.8798 | 1940 | 0.4714 | - | - |
0.8889 | 1960 | 0.497 | - | - |
0.8980 | 1980 | 0.4878 | - | - |
0.9070 | 2000 | 0.4906 | 0.4855 | 0.5633 |
0.9161 | 2020 | 0.5018 | - | - |
0.9252 | 2040 | 0.4998 | - | - |
0.9342 | 2060 | 0.4619 | - | - |
0.9433 | 2080 | 0.4722 | 0.4855 | 0.5575 |
0.9524 | 2100 | 0.487 | - | - |
0.9615 | 2120 | 0.4798 | - | - |
0.9705 | 2140 | 0.46 | - | - |
0.9796 | 2160 | 0.4683 | 0.4844 | 0.5710 |
0.9887 | 2180 | 0.5026 | - | - |
0.9977 | 2200 | 0.4905 | - | - |
1.0068 | 2220 | 0.5008 | - | - |
1.0159 | 2240 | 0.4918 | 0.4832 | 0.5951 |
1.0249 | 2260 | 0.4809 | - | - |
1.0340 | 2280 | 0.4964 | - | - |
1.0431 | 2300 | 0.4562 | - | - |
1.0522 | 2320 | 0.4529 | 0.4862 | 0.5884 |
1.0612 | 2340 | 0.4689 | - | - |
1.0703 | 2360 | 0.4811 | - | - |
1.0794 | 2380 | 0.4822 | - | - |
1.0884 | 2400 | 0.4944 | 0.4832 | 0.5892 |
1.0975 | 2420 | 0.5001 | - | - |
1.1066 | 2440 | 0.4912 | - | - |
1.1156 | 2460 | 0.4826 | - | - |
1.1247 | 2480 | 0.47 | 0.4834 | 0.5988 |
1.1338 | 2500 | 0.4818 | - | - |
1.1429 | 2520 | 0.4648 | - | - |
1.1519 | 2540 | 0.4687 | - | - |
1.1610 | 2560 | 0.4737 | 0.4837 | 0.5984 |
1.1701 | 2580 | 0.4789 | - | - |
1.1791 | 2600 | 0.4876 | - | - |
1.1882 | 2620 | 0.4952 | - | - |
1.1973 | 2640 | 0.4861 | 0.4823 | 0.5981 |
1.2063 | 2660 | 0.4758 | - | - |
1.2154 | 2680 | 0.4927 | - | - |
1.2245 | 2700 | 0.4897 | - | - |
1.2336 | 2720 | 0.4785 | 0.4835 | 0.6037 |
1.2426 | 2740 | 0.5027 | - | - |
1.2517 | 2760 | 0.4776 | - | - |
1.2608 | 2780 | 0.445 | - | - |
1.2698 | 2800 | 0.4675 | 0.4844 | 0.6264 |
1.2789 | 2820 | 0.4646 | - | - |
1.2880 | 2840 | 0.4822 | - | - |
1.2971 | 2860 | 0.4669 | - | - |
1.3061 | 2880 | 0.4817 | 0.4823 | 0.6375 |
1.3152 | 2900 | 0.4759 | - | - |
1.3243 | 2920 | 0.4876 | - | - |
1.3333 | 2940 | 0.4689 | - | - |
1.3424 | 2960 |
Jina Embeddings V3
Jina Embeddings V3 是一个多语言句子嵌入模型,支持超过100种语言,专注于句子相似度和特征提取任务。
文本嵌入
Transformers

支持多种语言
J
jinaai
3.7M
911
Ms Marco MiniLM L6 V2
Apache-2.0
基于MS Marco段落排序任务训练的交叉编码器模型,用于信息检索中的查询-段落相关性评分
文本嵌入
英语
M
cross-encoder
2.5M
86
Opensearch Neural Sparse Encoding Doc V2 Distill
Apache-2.0
基于蒸馏技术的稀疏检索模型,专为OpenSearch优化,支持免推理文档编码,在搜索相关性和效率上优于V1版本
文本嵌入
Transformers

英语
O
opensearch-project
1.8M
7
Sapbert From PubMedBERT Fulltext
Apache-2.0
基于PubMedBERT的生物医学实体表征模型,通过自对齐预训练优化语义关系捕捉
文本嵌入
英语
S
cambridgeltl
1.7M
49
Gte Large
MIT
GTE-Large 是一个强大的句子转换器模型,专注于句子相似度和文本嵌入任务,在多个基准测试中表现出色。
文本嵌入
英语
G
thenlper
1.5M
278
Gte Base En V1.5
Apache-2.0
GTE-base-en-v1.5 是一个英文句子转换器模型,专注于句子相似度任务,在多个文本嵌入基准测试中表现优异。
文本嵌入
Transformers

支持多种语言
G
Alibaba-NLP
1.5M
63
Gte Multilingual Base
Apache-2.0
GTE Multilingual Base 是一个多语言的句子嵌入模型,支持超过50种语言,适用于句子相似度计算等任务。
文本嵌入
Transformers

支持多种语言
G
Alibaba-NLP
1.2M
246
Polybert
polyBERT是一个化学语言模型,旨在实现完全由机器驱动的超快聚合物信息学。
文本嵌入
Transformers

P
kuelumbus
1.0M
5
Bert Base Turkish Cased Mean Nli Stsb Tr
Apache-2.0
基于土耳其语BERT的句子嵌入模型,专为语义相似度任务优化
文本嵌入
Transformers

其他
B
emrecan
1.0M
40
GIST Small Embedding V0
MIT
基于BAAI/bge-small-en-v1.5模型微调的文本嵌入模型,通过MEDI数据集与MTEB分类任务数据集训练,优化了检索任务的查询编码能力。
文本嵌入
Safetensors
英语
G
avsolatorio
945.68k
29
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers

支持多种语言
L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers

英语
C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统
中文
R
uer
2,694
98
AIbase是一个专注于MCP服务的平台,为AI开发者提供高质量的模型上下文协议服务,助力AI应用开发。
简体中文