以下是关于长文本总结和提问使用模型的相关信息:
在提高 AI 小詹大模型的对话能力方面,可用结构化思维,如在 AGI 搜索结构化获取相关文章。若涉及上下文 token 长度(即大模型的记忆窗口),通常无法延长,可参考分治法解决。 豆本豆用 ChatGPT 写剧本并想让其学习现有成功剧本总结规律用于后续创作,核心在于清晰描述总结规律的方法论,同时可能会有 token 限制问题。 JC 通过 GPT 结构化拆解问题和给出解决思路,可参考李继刚:结构化的 prompt 方法论和云中江树:系统论述:构建高性能 Prompt 之路——结构化 Prompt。 Gemini 模型系列在“长文本”方面涵盖长篇摘要、检索和问题回答任务,通过在多个基准测试中评估,随着模型规模增加,在推理、数学/科学、摘要和长上下文等方面质量稳定提升,Gemini Ultra 是所有六种能力(包括事实性、长文本、数学/科学、推理、多语言等)的最佳模型,Gemini Pro 是第二大模型且服务更高效。