快速启动指南

海盗船工作站电脑

  本页面由 DeepL 自动翻译。
The English version is available here - English
If you have any other problems please contact 客户支持
CORSAIR_AI_WORKSTATION_RENDER_02
CORSAIR_AI_WORKSTATION_300_RENDER_03
CORSAIR_AI_WORKSTATION_300_RENDER_04

AI 工作站简介

感谢您购买 CORSAIR AI WORKSTATION!

CORSAIR AI 工作站 内容

AI Workstation Web QSG - Content 1
AI Workstation Web QSG - Content 2

首页

电源线


CORSAIR AI 工作站连接性

Corsair AI Workstation Web QSG - Connectivity - Ringtail
  1. 电源
  2. 性能级别选择器
  3. SD 4.0 读卡器
  4. 1个 USB 4.0 Type-C 接口
  5. 2个 USB 3.2 Gen 2 Type-A 接口
  6. 耳机/麦克风组合接口
Corsair AI Workstation Web QSG - Connectivity 2 - Ringtail
  1. 2个 USB 2.0 Type-A 接口
  2. 1个 HDMI 2.1 接口(FRL 8Gbps)—— 4K60 HDR / 1440p120
  3. 1x DP 1.4 (HBR3) – 4K120 / 5K60(支持动态范围控制)
  4. 1个 USB 4.0 Type-C 接口
  5. 1个 USB 3.2 Gen 2 Type-A 接口
  6. 1个 2.5GbE 以太网端口(RTL8125BG)
  7. 耳机/麦克风组合接口
  8. 电源连接器

设置您的海盗船 AI 工作站

开箱:海盗船 AI 工作站

CORSAIR AI WORKSTATION 随附一条电源线,需安装在台式机背面。开机前,请确保已连接所有设备,以便系统启动后即可立即使用。

  1. 请小心翼翼地将 CORSAIR AI WORKSTATION 从包装中取出。
  2. 请从 CORSAIR AI WORKSTATION 上取下顶部和底部的运输保护垫。
  3. 将 CORSAIR AI WORKSTATION 放置在桌面上,继续进行设置。如果您更倾向于将 CORSAIR AI WORKSTATION 放置在地面上,请避免将其放在绒毛地毯上,否则可能会导致散热问题。为了获得最佳效果,请确保 CORSAIR AI WORKSTATION 离地放置。

连接海盗船 AI 工作站

  1. 请通过机箱背面的主板USB接口,将鼠标、键盘以及其他设备连接到台式机上。
Corsair AI Workstation Web QSG - Set up 1 - Ringtail

2. 使用 HDMI 或 DisplayPort 线缆将显示器连接至 DisplayPort 或 HDMI 端口。

Corsair AI Workstation Web QSG - Set up 2 - Ringtail

3. CORSAIR AI WORKSTATION 内置 Wi-Fi,无需额外安装 Wi-Fi 天线。如果您更倾向于使用网线连接互联网,请改用网线连接(请使用非屏蔽 RJ45 网线进行操作)。

Corsair AI Workstation Web QSG - Set up 3 - Ringtail

4. 将电源线一端插入电源适配器,另一端插入最近的电源插座。如果您使用的是电源防浪涌保护器,请将电源线插入该保护器。

Corsair AI Workstation Web QSG - Set up 4 - Ringtail

5. 要开启 CORSAIR AI WORKSTATION,请按下位于前面板上的电源按钮。

Corsair AI Workstation Web QSG - Set up 5 - Ringtail

6. 系统完成初始启动过程后,将加载预装的 Windows 操作系统。

7. 按照 Windows 的提示完成用户帐户的创建。


性能级别选择器

前面板控制

CORSAIR AI WORKSTATION 配备三种性能模式——静音、平衡和极致。通过机箱前部的功率级别选择器循环切换模式,以最适合您当前的任务。屏幕上将显示状态提示,以确认您的选择。

Corsair AI Workstation Web QSG - Selector - Ringtail

统一内存

CORSAIR AI WORKSTATION 配备统一内存,使 CPU 和 GPU 能够共享同一块高速内存,从而加快数据访问速度,并在 AI、创意和专业工作负载中提升性能。这不仅提高了效率、降低了延迟,还能加速处理高负载的 AI、渲染和创意工作负载。您可以按照以下说明更改显卡内存分配。

BIOS 说明

1. 打开系统电源。当出现 CORSAIR 标志时,请立即按下键盘上的DEL键进入 BIOS 设置界面。

2. 在 BIOS 主屏幕中,找到并选择“高级”选项卡。

3. 选择“GFX 配置”选项。

BIOS Home Screen

4. 找到并选择“UMA 帧缓冲区大小”选项。注意:iGPU 配置PCIe 可调整大小 BAR 支持以及4G 以上解码 设置应预先配置为如下图所示。

Memory Screen

5. 将弹出一个下拉菜单,显示可用的 UMA 帧缓冲区大小。请选择最适合您当前工作负载的大小。

Memory Selection

6. 完成选择后,按下键盘上的F10 键,然后选择“保存”以确认并重启电脑。

BIOS Save

AMD 软件说明

1. 打开AMD SOFTWARE:Adrenaline Edition

Home Screen

2. 选择软件窗口顶部的“性能”选项卡,然后从下方的选项中选择“调优”

Tuning

3. 您可以从三个预设选项(“最低”“中等或“最高”)中进行选择,或者选择“自定义”来设置您想要的内存值。

  • 最低要求:0.5GB 独立显存
  • 容量:32GB 独立显存
  • 高:64GB 独立显存
Variable Memory

4. 如果选择了“自定义”选项,您可以从下拉菜单中选择所需的独立显存分配量。

Dedicated Graphics Memory

5. 选择您喜欢的独立显存分配方案后,AMD 软件底部将出现重启提示。请按照提示重启电脑。

Custom

CORSAIR AI 软件套件

Corsair AI 软件套件是一款经过精心设计的基于网页的配置和设置助手,旨在简化 AI Workstation 300 等“AI 优先”工作站的配置体验。其宗旨是帮助技术水平较低的用户避免盲目摸索,同时为高级用户保留足够的灵活性。

工作站的配置本质上是因人而异的——它需要根据您的工具、模型和工作流程进行优化。但对许多人来说,尤其是刚接触本地 AI、大型语言模型(LLMs)或开源推理工具的新手,初始设置可能会让人感到不知所措。安装 Python、Git、PyTorch、Ollama、Anaconda、LangChain、Transformers 等工具链,通常需要掌握命令行操作、正确处理依赖项、理解技术术语以及进行系统调优。

https://www.corsair.com/ai-software-stack/index.html

海盗船 AI 软件套件通过以下方式应对这一挑战:

  • 经过预验证的工具包,用户只需极少操作即可完成安装。
  • 针对常见工作流的自动配置预设:LLM推理、Whisper转录、ComfyUI图像生成等。
  • 基于网页的设置和自定义界面——无需使用命令行。
  • 为希望通过 Jan.ai 等开源框架运行模型(如 GPT-OSS、DeepSeek、LLaMA、Mistral、Gemma 等)的新用户提供快速入门指南。
  • 可选安装 — 高级用户可以选择完全不安装,或仅安装所需的组件。

CORSAIR AI 软件套件常见问题解答

问:什么是 CORSAIR AI 软件套件?

答:CORSAIR AI 软件套件是一个基于网页的平台,可帮助您在工作站上配置和管理支持 AI 的工具及开发工具。该平台主要包含两个部分:

  • 一个轻量级的安装程序,可在您的系统上运行以收集基本的硬件和软件信息。
  • 一个网络门户,您可以在其中浏览和安装兼容的 AI 工具,并集成工作流。

问:我该如何开始使用它?

A:请按照以下步骤操作。

  1. 在 AI 软件栈的主页上选择“开始使用”。
  2. 请选择符合您需求的“应用场景”。您可以在每个“应用场景”的“了解更多”部分中查看更多信息。
  3. 选定所有您希望首先开始的用例后,请点击“下一步”。
  4. 点击“分析我的系统”按钮。这将下载一个小型应用程序,用于收集基本系统信息:(CPU 品牌、操作系统、CPU 类型、GPU 类型、系统内存容量、可用存储空间)。该应用程序还将负责安装您所选的工具。安装完成后,如需卸载,可自行操作。
  5. 点击“提交”以继续查看推荐工具
  6. 浏览“工具包”部分,选择您想要安装的工具(例如:Ollama、Python、ComfyUI、PyTorch)。
  7. 选择“安装”。
  8. 下载“系统分析器”应用程序。
  9. 运行应用程序。
  10. 选择“确认”以继续安装过程。
  11. 请关注安装进度。大多数应用程序将在后台进行安装。如有必要,安装窗口将引导您完成任何手动配置。

安装程序的工作原理

问:本地安装人员负责什么工作?

A:本地安装程序:

  • 检测系统硬件(CPU、GPU、内存、存储)及操作系统版本
  • 验证与现有 AI 工具的兼容性
  • 从网络门户安装选定的工具

问:安装程序会运行 AI 模型吗?

A:不。它本身不会处理数据或运行模型。它只是为您的工作站做好准备,以便您安装所选的 AI 工具。

使用工具包

问:什么是工具包?

A:该工具包是通过网络门户提供的经过精选的人工智能应用程序和实用工具列表。每个条目包含:

  • 该工具的功能说明
  • 最低和推荐系统配置
  • 分步安装和配置指南

问:我可以添加工具包中未列出的工具吗?

答:是的,您可以手动安装任何兼容的软件,但 AI 软件栈的自动安装和更新功能仅适用于工具包中的工具。开发者生态和 AI 领域似乎每天都在发生变化。我们提供了一系列基础工具,这些工具已被许多开发者广泛使用,可帮助您快速入门。

隐私与数据处理

问:当地代理会收集哪些信息?

答:仅收集基本系统规格(硬件配置、操作系统版本、已安装的驱动程序)以及已安装的Stack管理工具列表。它不会收集个人文件、浏览历史记录或其他应用程序的使用数据。

问:我的信息会被上传到云端吗?

答:不,用于推荐和配置兼容工具所需的基本系统信息仅在本地使用。不会传输任何个人或项目数据。

问:我的数据会与第三方共享吗?

答:不。我们不会收集任何信息并与海盗船、我们的任何子公司或任何第三方共享。

更新与支持

问:AI 软件栈多久更新一次?

答:本地代理和 Web 门户将定期发布更新,以添加新工具、改进兼容性检测并优化安装流程。由于该工具旨在作为基础配置工具,大多数用户会发现,他们仅需在首次部署系统时使用它。随着用户逐步探索和完善使用场景,并根据自身需求定制系统,他们可以通过 GitHub、Hugging Face 等各类仓库直接获取所需工具。

问:我该去哪里寻求帮助?

答:您可以在门户网站的“常见问题与支持”栏目中直接查阅文档和支持文章。


AI 软件推荐

JAN.AI

CORSAIR AI WORKSTATION 搭载了 Jan.ai,这是一个开源的、以本地优先为理念的 AI 平台,旨在让用户完全掌控其 AI 交互过程。Jan 无需依赖云端服务,而是让您能够直接在自己的硬件上运行强大的语言模型,从而提供隐私保护、灵活性和定制化体验。

Jan

主要方面包括:

  • 本地运行或云端灵活性:可在本地运行模型,或在需要更高计算能力时连接至 OpenAI、Groq、Cohere 等云端 API。
  • 模型中心访问:自带模型中心,通过 GGUF 格式简化了对 Mistral、LLaMA、Gemma 等开源模型的访问,从而实现高效的本地部署。
  • 本地 API 服务器:包含一个监听 localhost:1337 的 OpenAI 兼容 API,可与需要标准 OpenAI 端点的现有工具或工作流进行集成。
  • 可扩展生态系统:支持扩展功能和模型上下文协议(MCP),使人工智能能够与Jupyter、Canva、网页浏览器等工具进行交互。

Jan.Ai 特别适合:

  • 注重隐私的用户:由于所有处理和存储均在本地进行,因此非常适合管理敏感或受监管的数据。
  • 开发者与研究人员:可在此尝试各种大型语言模型、构建自定义助手,或搭建私有AI服务器。
  • 爱好者与业余爱好者:非常适合希望探索本地 AI 工作流、离线运行模型或避免云服务重复费用的用户。

AMUSE.AI

AMUSE.AI(通常简称为 Amuse)是一款专为 Windows 电脑设计的免费本地运行式 AI 艺术与视频生成工具,由 TensorStack 与 AMD 合作开发。它利用 Stable Diffusion 及其他先进的 AI 模型,让您能够直接在本地设备上生成和编辑创意视觉内容,无需网络连接、账户或订阅。

Amuse

主要特点:

  • “EZ 模式”助您即刻激发创意:无需任何设置,即可根据文本提示或草图立即生成精美的艺术作品。
  • 专家模式与高级控制:解锁 100 多种 AI 模型,实现精细化、技术性的控制——包括图像生成、过滤和自动化。
  • 自定义 AI 滤镜与设计工具:对现有图片应用生成式滤镜,或将您的草图转化为精美的艺术作品。
  • 文本转视频及视频功能:Amuse 现已支持实验性的视频生成功能——将文本转换为视频、将图片转换为视频,以及重新设计视频片段。
  • AMD 驱动的超分辨率技术:在兼容的硬件上,AMD XDNA™ 超分辨率功能可提升图像分辨率,并带来更清晰的画质和更快的处理速度。
  • 私密、本地化且免费:所有流程均在您的电脑上运行——无需云端介入,确保绝对隐私。最棒的是,个人使用完全免费,无需登录或订阅。

Amuse.AI 特别适合:

  • 快速创作:使用“简易模式”,可直接根据文本或草图生成图像。
  • 图片编辑与滤镜:应用 AI 滤镜,改变照片的风格、色调或氛围。
  • 草图扩展:通过“设计模式”将简单的轮廓转化为精细精美的艺术作品。
  • 视频内容创作:尝试文字转视频、图片转视频以及风格重塑效果。
  • 高分辨率输出:利用 AMD XDNA™ 技术对图像进行超采样,呈现更清晰的视觉效果。
  • 注重隐私的工作流程:内容完全在您的设备上生成——数据绝不离开您的电脑。
  • AMD 硬件展示:全面展示 AMD 强大的人工智能支持型 CPU、GPU 和 NPU 的强大性能。

META LLAMA 4 SCOUT

Llama 4 Scout 是 Meta 于 2025 年 4 月推出的新一代 Llama 4 系列的一部分。 这是一个基于专家混合(MoE)架构的170亿活跃参数模型,在总计1090亿个参数中选用了16个专家模型。该模型支持原生多模态输入,这意味着它能够处理文本和图像,并生成多语言文本或代码输出。

META LLAMA 4 Scout

主要特点与优势:

  • 高效且强大:尽管规模庞大,但在经过优化的配置下,Llama 4 Scout 依然足够精简,仅需单块 NVIDIA H100 GPU 即可运行。
  • 卓越的基准测试表现:在多种基准测试中,其表现均超越了Google的Gemma 3、Gemini 2.0 Flash-Lite和Mistral 3.1等模型。
  • 开放使用,但存在某些许可限制:虽然从技术上讲可以访问,但对于规模庞大的商业用户而言,Llama 4 模型受许可限制约束。
  • 在敏感话题处理方面更胜一筹:与 Llama 3.3 相比,Llama 4(包括 Scout)在处理争议性话题时表现得更为开放,拒绝的提示更少,且偏见程度有所降低。

用例与应用:

从实际应用来看,Llama 4 Scout 的优势体现在以下方面:

  • 长文档任务:非常适合分析或总结技术文档、法律文本档案、代码库或记录文本等海量数据结构,同时能够保持数百万个词素的上下文关联。
  • 多模态分析:凭借其处理文本和图像的能力,该技术非常适合用于视觉推理、文档理解,以及图像描述或内容生成等应用场景。
  • 多语言与多模态输出:非常适合聊天机器人、编程辅助,或跨语言内容生成与翻译。
  • 高效部署:对于希望部署强大的人工智能系统,但无需大规模GPU集群的研究实验室或企业而言,这是一个绝佳的选择。

如何在 Strix Halo 128GB 上运行 Meta Llama 4 Scout:

注意:以下步骤仅适用于开发者模式或高级用户模式。Meta Llama 4 需要至少 96 GB 内存才能稳定运行。

  1. 请安装随附的Adrenalin Preview Press 驱动程序
  2. 打开 AMD Adrenalin 软件,点击“性能”选项卡,再点击“调校”选项卡,在“可变显存”前,将下拉菜单更改为 96GB,然后点击“应用”(此操作将导致系统重启)。
  3. 安装 LM Studio。LM Studio - 发现、下载并运行本地 LLM
  4. 运行程序,然后点击“跳过入门指南”
  5. 转到“发现”标签页(放大镜图标)。
  6. 点击左侧的“运行时”,如果有待处理的更新,请点击“更新”。
  7. 请确保右侧已将(Vulkan) llama.cpp选为默认运行时。
  8. 现在点击“模型搜索”抽屉,搜索“lmstudio community llama 4 scout”
  9. 在下拉框右侧,选择 Q4 K M 版本并下载。文件大小为 67 GB。
META LLAMA 4 Scout Installation

10. 模型下载完成后,返回“聊天”标签页,点击中间的下拉菜单。确保已勾选“手动选择参数”,然后点击模型名称:Llama 4 Scout。

11. 将 GPU 卸载层最大化至 100%(48/48)。

a. 使用 --gpu-layers 标志:通过 GPU Layers(或 -ngl)参数指定要卸载到 GPU 的层数。

b. 设置数值:将数值设为 48,以将所有图层卸载到 GPU 上。

示例提示:./llama-cli --model llama4-scout-model.gguf --n-gpu-layers -48

12. 点击“加载模型”。

13. 首次加载时,您可能会收到以下 Guardrails 提示。如果出现此提示,请将其关闭:

META LLAMA 4 Scout Installation 2

14. 加载模型(确保已选中“手动加载参数”选项,且“GPU卸载层”设置为 100%)

15. 聊天!

16. 注意:您可以在聊天区域点击“图片”图标,向大语言模型(LLM)提供一张图片,以测试其视觉能力。

17. 注意:这些步骤仅适用于开发者模式和高级用户模式。


升级存储

存储安装

如果您想增加存储空间,可以安装第二块 NVMe 固态硬盘。

注意:为确保安装合适,建议安装低矮型散热片的 NVMe SSD 或不带散热片的 NVMe SSD。

若要更换或安装更多存储设备,请按照以下说明操作。

  1. 拧下下图所示的9颗螺丝,拆下后面板。
Storage 1

2. 小心取下后面板。

Tear down 3

3. 轻轻施力推动内部托盘,使其从机箱前侧滑出。待托盘露出足够长度以便抓握时,请小心地将托盘从机箱中拉出。

Tear down 2

4. 找到主板上的第二个 M.2 插槽,然后安装您的 NVMe SSD 存储盘。

Tear down 4

5. 请务必使用预装的螺丝将 NVMe SSD 存储盘固定好。

Tear down 5

6. 安装完成后,将主板托盘放回机箱内。

Picture8

7. 将后面板装回原位。

Tear down 3

8. 用9颗螺丝固定后面板。

Storage 1

获取最新安装程序和文档

访问驱动程序和软件

CORSAIR AI WORKSTATION 已预装所有必要的驱动程序和软件,可直接使用。您可以在Corsair.com产品支持页面的“下载”部分获取驱动程序和软件的新版本。


合规声明


有限产品保修


补救措施


已淘汰或停产的产品


除外条款


版权/法律信息


责任限制

Vengeance PC Web QSG - 2 Year Warranty Logo