ICONN 1:开源人工智能的新时代
社区文章 发布日期:2025 年 6 月 16 日
GPU 资源不足?
使用少于 3 块 A100?没问题。试试我们的精简版:ICONN 0.5 Mini(80 亿参数)。
🧠 情感语境感知
ICONN 1 能够解释情感语调,并调整其词汇、风格和表达方式,从而创建出情感响应式、类人化的对话。
⚙️ ICONN 情感核心 (IEC)
注意:Hugging Face 上不可用
IEC 凭借数百万个微代理为 ICONN 的情商提供支持,模拟数十亿种情感状态和情境感知反应。
🧩 推理 + 关联
ICONN 不仅仅是逻辑。其关系架构支持讲故事、辅导、协作和创意对话。它与您“共同思考”,而不仅仅是为您思考。
🧠 ICONN MoE 中有什么?
ICONN 是一种专家混合 (MoE) 模型。每个用户消息都会根据关键词和语义意图路由到最相关的专家。
用户输入 | 所选专家 |
---|---|
“你好!” |
ICONN-Base |
“什么是物理学?” |
ICONN-e1-Science |
“解释一下如何将数字立方。” |
ICONN-e1 |
专家描述
- ICONN-1:基础对话模型。
- ICONN-e1-Science:用于科学推理任务的专家,经过学术数据微调。
- ICONN-e1:通用推理模型。
- ICONN-Writer:创意写作专家,针对叙事流畅性进行了微调。
🚀 用法
⚠️ 最低要求
- 4 块 Nvidia A100 或 1 块 Nvidia B100
- 120GB 内存
- 120–192GB 显存
如果您的系统不符合此要求,您可以:
- 使用 ICONN 0.5 Mini (8B)
- 尝试我们的量化模型
- 直接在 Hugging Face Space 上聊天
🧪 代码示例
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch
def run_iconn_chatbot(model_name="Enderchef/ICONN-1"):
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
device = 0 if torch.cuda.is_available() else -1
chat_pipeline = pipeline(
"text-generation",
model=model,
tokenizer=tokenizer,
device=device,
max_length=1624,
do_sample=True,
top_p=0.9,
temperature=0.4,
pad_token_id=tokenizer.eos_token_id
)
print(f"ICONN chatbot running with model: {model_name}. Type 'exit' to quit.")
conversation_history = ""
while True:
user_input = input("You: ")
if user_input.lower() == "exit":
print("Goodbye!")
break
conversation_history += f"User: {user_input}\nBot:"
response = chat_pipeline(conversation_history, max_length=len(tokenizer.encode(conversation_history)) + 100)[0]['generated_text']
bot_reply = response[len(conversation_history):].strip().split("\n")[0]
print(f"Bot: {bot_reply}")
conversation_history += f" {bot_reply}\n"
if __name__ == "__main__":
run_iconn_chatbot()
##📦 Model Info
Parameters: 84B
Precision: BF16
Format: Safetensors
Downloads (Last 30d): 0
Spaces Using ICONN 1: