登录
首页 >  科技周边 >  人工智能

PerplexityAI默认模型设置方法

时间:2026-03-23 17:00:43 312浏览 收藏

想让Perplexity AI每次都用你偏爱的模型(比如llama-3.1-sonar-small-128k-online而非意外跳转到Claude 3 Opus)?这篇文章手把手教你五种精准控制默认模型的方法——从网页端一键设置全局偏好、通过Focus模式为学术/写作等任务智能绑定专属模型,到API调用时硬编码指定、移动端长按锁定设备级默认,再到Docker自托管环境下的config.toml固化配置,覆盖所有使用场景,助你告别模型误触发,真正实现“所选即所用”。

Perplexity AI怎么设置默认模型_Perplexity AI模型偏好配置教程【设置】

如果您在使用Perplexity AI时发现每次提问都调用非预期的模型,例如本想使用llama-3.1-sonar-small-128k-online却默认触发Claude 3 Opus,这通常是因为模型偏好未显式配置或配置未生效。以下是设置Perplexity AI默认模型的具体操作路径与多方式配置方法:

一、网页端账户设置中配置默认模型

Perplexity Pro用户可在个人账户界面直接指定全局默认模型,该设置将作用于所有普通聊天会话(非Copilot或自定义空间)。此方式无需代码,适用于绝大多数日常使用场景。

1、登录 perplexity.ai 网站,点击右上角头像,选择“Settings”。

2、在左侧菜单中点击“Model Preferences”。

3、在“Default model for chat”下拉选项中,选择目标模型,如llama-3.1-sonar-small-128k-onlineClaude-3-Opus(仅Pro用户可见)。

4、向下滚动至页面底部,点击“Save Changes”按钮确认保存。

二、通过焦点(Focus)模式绑定专属模型

Perplexity的“Focus”机制允许为不同任务类型预设模型策略。当启用特定Focus时,系统将自动加载与其关联的优化模型,该绑定优先级高于全局默认设置,且支持模型与用途强耦合。

1、在搜索框下方点击当前Focus标签(如“All”或“Academic”)。

2、在弹出菜单中选择“Edit Focus”或“Create New Focus”。

3、在编辑面板中找到“Model”字段,从可选列表中选取期望模型,例如GPT-4-turbo用于写作类任务,或Sonar-Medium-Online用于实时技术问答。

4、勾选“Apply this model by default when this Focus is active”。

5、点击“Update Focus”完成绑定。

三、API调用时强制指定模型参数

对于开发者通过Perplexity API集成的场景,模型选择由请求体中的model字段决定,服务端将完全忽略账户侧的默认设置,实现运行时精准控制。此方式具备最高优先级和最大灵活性。

1、确保请求Header中包含有效API密钥:Authorization: Bearer

2、构造POST请求体,明确声明model字段,例如:"model": "llama-3.1-sonar-small-128k-online"

3、若使用Spring AI框架,需在application.properties中配置:spring.ai.openai.chat.model=llama-3.1-sonar-small-128k-online

4、发送请求至https://api.perplexity.ai/chat/completions接口。

四、移动端应用内切换并锁定模型

iOS与Android版Perplexity App支持在单次会话中手动切换模型,并可通过长按模型名称将其设为该设备的临时默认项。该设置独立于网页端,适用于移动优先工作流。

1、打开Perplexity移动应用,进入任意聊天界面。

2、点击输入框右侧的模型图标(显示当前激活模型缩写,如“L3S”或“C3O”)。

3、在弹出列表中选择目标模型,例如Claude-3-Haiku

4、长按所选模型名称,直到出现“Set as default on this device”提示。

5、松手确认,此后新会话将自动加载该模型。

五、Docker本地部署时固化模型配置

当使用Docker部署自托管Perplexity实例时,模型选择由config.toml文件中的default_model字段控制。该配置在容器启动时加载,重启后持续生效,适用于私有化、合规性要求高的环境。

1、定位到项目根目录下的config.toml文件。

2、查找[llm]配置段,在其下添加或修改行:default_model = "llama-3.1-sonar-small-128k-online"

3、确保该模型已下载至本地模型仓库路径,路径格式为models//gguf/。

4、执行docker compose down后,再运行docker compose up -d重新加载配置。

今天带大家了解了的相关知识,希望对你有所帮助;关于科技周边的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>