<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Api on 极客老墨</title>
    <link>https://blog.hankmo.com/tags/api/</link>
    <description>Recent content in Api on 极客老墨</description>
    <generator>Hugo -- 0.138.0</generator>
    <language>zh-cn</language>
    <lastBuildDate>Thu, 02 Apr 2026 00:00:00 +0000</lastBuildDate>
    <atom:link href="https://blog.hankmo.com/tags/api/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>大模型 API 核心参数：调对了事半功倍，调错了钱打水漂</title>
      <link>https://blog.hankmo.com/llm-core-parameters/</link>
      <pubDate>Thu, 02 Apr 2026 00:00:00 +0000</pubDate>
      <guid>https://blog.hankmo.com/llm-core-parameters/</guid>
      <description>prompt 看起来没问题，接口却一会儿乱答、一会儿截断、一会儿 JSON 解析失败？我刚开始写 AI 应用时，也很容易把问题都归到 prompt 上。后来才发现，很多问题其实是 API 参数没有按业务场景设好。本文用一个客服工单摘要接口，把 model、thinking、temperature、max_tokens、response_format、stop、stream 和 usage 这些核心参数讲透。</description>
    </item>
  </channel>
</rss>
