• 如何使用Chat Completions接口的函数调用功能
  • 发布于 2个月前
  • 716 热度
    0 评论
  • 张蜚
  • 22 粉丝 35 篇博客
  •   
背景
最近 OpenAI 发布了一些模型及 API 的更新,主要有以下内容:
1. Chat Completions 接口中新增对 function calling(函数调用)的支持;
2. gpt-3.5 发布的新的支持 16k 上下文的模型 gpt-3.5-turbo-16k ,直接变成了原来的 4 倍;
3. 发布了新的支持函数调用的模型 gpt-3.5-turbo-0613 和 gpt-4-0613 ;

其中对开发者而言,最兴奋的就是 function calling 的功能了,这个基本就是 ChatGPT Plugin 底层实现的基础了,有了这个能力我们也可以打造自己的“插件商城”了。下面我们就一起看一下 function calling 的具体功能。


概述
GPT 本身的局限

OpenAI 的 GPT 本身具有很强的智能,但也有知识陈旧以及缺少“手脚”问题。比如,gpt-4 模型的训练数据都是 2021 年 9 月之前的数据,所以他并不知道 2023 年苹果发布了 visionOS 系统;另外,现在的 ChatGPT 并不能执行一些动作,比如帮忙发送邮件,现在能做的仅仅是编写邮件。


具体表现为:
LLM 的知识是基于模型训练时使用的数据及知识,对于后续的新的事实其并不知道;
LLM 类似于“缸中之脑”,其有很高的智能但是缺少一些行动的能力;

目前的解决方案
上述问题社区中也有一些解决方案,如 LangChain 之类的工具。除此之外,OpenAI 官方也推出了 Plugin 的功能,允许开发者可以给 LLM 提供一些能力来解决上述问题,甚至是增强其能力提供了更多模态的信息输出。
上述的解决方案中也都有各自的问题:

LangChain 的解决方案毕竟不是官方方案,不可避免的存在一些稳定性的隐患,除此之外,LangChain 目前仅支持 Python 以及 JS 代码,其他的语言没有现成的解决方案;
OpenAI Plugin 的方式是正解,但是只能在 ChatGPT 这个封闭的生态中使用,对于一些垂直领域的 LLM 应用开发而言,并不能直接使用;

Function Calling

简单讲 Function Calling 功能其实就是在 Chat Completions 接口中新增了一个 functions 的可选入参,该参数是一个列表可以支持传入多个函数的声明,在声明中告诉 GPT 有这些函数可以被调用,他可以借助这些函数完成自己不能完成的的一些事情,或者说把自己的任务完成的更加出色。从这角度来理解 Function Calling 和 ChatGPT 中的 Plugin 并没有本质区别。前者是面对开发者的基础能力,后者是面对用户的基础交互体验。


Function Calling 的出现基本上可以很好的解决之前遗留的一些问题:
1.突破编程语言的限制,目前发布的功能是云端接口,只要可以进行网络请求的语言都可以实现此功能;
2.提升函数调用的稳定性,官方出品稳定性有保证,但并不是没有稳定性的问题还是要添加对应容错逻辑;
3.提示 API 易用性,垂直领域的 LLM 应用开发少不了 API 调用,这部分的使用越简单其上层的 LLM 应用月繁荣;

下面我们就来详细看一下 Function Calling 到底是什么,怎么用,以及一些常见的使用案例。


Chat Completions

Function Calling 是 Chat Completions 接口(下文统一称 Chat 接口)中一个参数,想要了解 Function Calling 我们需要先了解一下 Chat 接口的一些基本概念。


接口简介
Chat 接口ChatGPT 聊天应用中使用的接口,区别于之前的 Completions 接口,它将用户和 GPT 的对话以列表的形式进行进行管理,并不是将所有的对话的统一拼接在一个字符串中。除此之外,Chat 接口还明确了 role 的概念,系统的上下文信息通过 system 来表示。
目前接口仅支持 gpt-3.5 和 gpt-4 的系列模型。其形式大致如下:
import openai
openai.ChatCompletion.create(
  model="gpt-3.5-turbo",
  messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Who won the world series in 2020?"},
        {"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."},
        {"role": "user", "content": "Where was it played?"}
    ]
)
messages 表示的是对话列表,包含对话的角色以及对应的内容,此次的更新中新增了 function 这个角色,目前共有以下内容:
system:表示系统上下文信息,确定当前对话的基本格调,一般接口只包含一条该内容;
user:用户的提问的问题;
assistant:GPT 返回的回答内容;
function:函数执行的结果,需要将此信息传递给 GPT,以便 GPT 更加次内容做出进一步的回答;

Function Calling 基本定义
这次的 Function Calling 功能并不是新接口,而是在 Chat 接口上扩展而来的。在请求接口以及接口返回上都有调整。主要内容如下:
接口请求:新增 functions 参数和messages平级,role 中新增 function 枚举标识是函数执行的结果;
接口返回:choices 的 message 中新增 function_call 字段,包含函数执行必须的参数信息,与文本内容 content 平级,但基本不会同时出现;

Curl 请求形式大致如下(下文会详细讲解字段含义):
curl <https://api.openai.com/v1/chat/completions> -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
  "model": "gpt-3.5-turbo-0613",
  "messages": [
    {"role": "user", "content": "What is the weather like in Boston?"}
  ],
  "functions": [
    {
      "name": "get_current_weather",
      "description": "Get the current weather in a given location",
      "parameters": {
        "type": "object",
        "properties": {
          "location": {
            "type": "string",
            "description": "The city and state, e.g. San Francisco, CA"
          },
          "unit": {
            "type": "string",
            "enum": ["celsius", "fahrenheit"]
          }
        },
        "required": ["location"]
      }
    }
  ]
}'
返回的 JONS 形式大致如下(下文会详细讲解字段含义):
{
  "id": "chatcmpl-123",
  ...
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": null,
      "function_call": {
        "name": "get_current_weather",
        "arguments": "{ \"location\": \"Boston, MA\"}"
      }
    },
    "finish_reason": "function_call"
  }]
}
Function Calling 调用流程
Function Calling 整个功能的调用顺序大致如下:
声明函数:定义当前函数的名称,描述,以及对应的参数信息,并请求对应的接口;
解析函数参数:接受对应的接口返回,并解析对应的函数参数信息;
执行函数:根据对应的参数信息调用本地函数;
上报结果:将本地函数执行的结果上报给 Chat 接口;

下面就以用户询问当前的天气的场景来详细讲解下 Function Calling 是如何运行的。


基本使用
第 1 步:添加函数声明
其中 functions 是一个列表包含多个函数对象,每个对象中包含:
name:函数的名字,但函数被命中时接口会返回此处定义的名称;
description:函数的描述,OpenAI 会根据此描述根据场景决定是否需要调用此函数,所以这里一定要描述清楚;
parameters:函数参数,当前定义的函数需要哪些传参,这些参数的类型以及可空性都需要在这里声明;

首先我们先定义一个获取当前天气的函数声明,并且这个函数需要两个参数:
location:位置信息,即想要查询那个地方的天气信息,类型是一个字符串,非空;
unit:天气的单位,类型是一个字符串,是两个枚举摄氏度与华氏度,可空;

其声明大致如下:
{
      "name": "get_current_weather",
      "description": "Get the current weather in a given location",
      "parameters": {
        "type": "object",
        "properties": {
          "location": {
            "type": "string",
            "description": "The city and state, e.g. San Francisco, CA"
          },
          "unit": {
            "type": "string",
            "enum": ["celsius", "fahrenheit"]
          }
        },
        "required": ["location"]
      }
    }
使用上述函数声明请求 OpenAI 接口的 Python 代码大致如下:
def chat():
    # Step 1: send the conversation and available functions to GPT
    messages = [{"role": "user", "content": "What's the weather like in Boston?"}]
    functions = [
        {
            "name": "get_current_weather",
            "description": "Get the current weather in a given location",
            "parameters": {
                "type": "object",
                "properties": {
                    "location": {
                        "type": "string",
                        "description": "The city and state, e.g. San Francisco, CA",
                    },
                    "unit": {"type": "string", "enum": ["celsius", "fahrenheit"]},
                },
                "required": ["location"],
            },
        }
    ]
    response = openai.ChatCompletion.create(
        model="gpt-3.5-turbo-0613",
        messages=messages,
        functions=functions,
        function_call="auto",  # auto is default, but we'll be explicit
    )
注意:
这里使用的模型是 gpt-3.5-turbo-0613 ,目前支持此功能的模型还有 gpt-4-0613 ,其他的模型可能并不支持函数调用。
function_call 传参数表示 OpenAI 如何使用函数,如果 functions 参数不为空时默认值为 auto,如果为空时默认值为 none;

第 2 步:解析函数的入参
若声明的函数被命中之后,其 Response 返回和之前相比会有以下不同之处:
content:content 内容为空,不仔包含对应的文本信息;
新增 function_call:在 choices 列表中 function_call 字段,该字段中包含需要调用的函数信息;
finish_reason:finish_reason 对应的值为 function_call ,表明是因为函数调用而停止的;

其返回的内容形式大致如下:
{
  "id": "chatcmpl-123",
  ...
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": null,
      "function_call": {
        "name": "get_current_weather",
        "arguments": "{ \"location\": \"Boston, MA\"}"
      }
    },
    "finish_reason": "function_call"
  }]
}
其解析的代码逻辑大致如下:
def parse_response(response):
    response_message = response["choices"][0]["message"]
    # 堆代码 duidaima.com
    # Step 2: check if GPT wanted to call a function
    if response_message.get("function_call"):
        # Step 3: call the function
        # Note: the JSON response may not always be valid; be sure to handle errors
        available_functions = {
            "get_current_weather": get_current_weather,
        }  # only one function in this example, but you can have multiple
        function_name = response_message["function_call"]["name"]
        fuction_to_call = available_functions[function_name]
        function_args = json.loads(response_message["function_call"]["arguments"])
        function_response = fuction_to_call(
            location=function_args.get("location"),
            unit=function_args.get("unit"),
        )
代码的大致逻辑如下:
首先判断 function_call 是否存在,即是否需要调用函数;
使用 json 解析对应的函数名以及对应的参数信息;

注意,OpenAI 返回的 JSON 信息并不能始终保证其有效性,需要自己做容错处理。


第 3 步:执行函数
在第 2 步的示例代码其实已经包括 JSON 的解析以及函数的调用了,我们看一下 get_current_weather 这个函数的具体声明:
def get_current_weather(location, unit="fahrenheit"):
    """Get the current weather in a given location"""
    weather_info = {
        "location": location,
        "temperature": "72",
        "unit": unit,
        "forecast": ["sunny", "windy"],
    }
    return json.dumps(weather_info)
首先函数在调用时 location 时必传的,unit 有默认值可以不用传递。这里为了方便起见并没有真正的去请求天气的接口,而是写死了一个 mock 的数据。在自己的业务中,需要将其替换成自己的真实业务逻辑。

下一步就是需要将这里的执行数据上报给 OpenAI 进行进一步的整合了。


第 4 步:将结果上报给 OpenAI
这一步我们会将函数的执行结果上传给 OpenAI,需要注意的有:
对话的 messages 中需要包含上一步 OpenAI 返回的 function_call 信息;
上报结果的 role 为 function,并且还需要通过 name 属性告知对应的函数名;

详细的代码如下:
def chat_function_call():
    # 第 4 步: 将函数执行的结果上报给 GPT

    messages.append(response_message)  # extend conversation with assistant's reply
    messages.append(
        {
            "role": "function",
            "name": function_name,
            "content": function_response,
        }
    )  # extend conversation with function response
    second_response = openai.ChatCompletion.create(
        model="gpt-3.5-turbo-0613",
        messages=messages,
    )  # get a new response from GPT where it can see the function response
    return second_response
完整的的 curl 代码大致如下:
curl <https://api.openai.com/v1/chat/completions> -u :$OPENAI_API_KEY -H 'Content-Type: application/json' -d '{
  "model": "gpt-3.5-turbo-0613",
  "messages": [
    {"role": "user", "content": "What is the weather like in Boston?"},
    {"role": "assistant", "content": null, "function_call": {"name": "get_current_weather", "arguments": "{ \"location\": \"Boston, MA\"}"}},
    {"role": "function", "name": "get_current_weather", "content": "{\"temperature\": "22", \"unit\": \"celsius\", \"description\": \"Sunny\"}"}
  ],
  "functions": [
    {
      "name": "get_current_weather",
      "description": "Get the current weather in a given location",
      "parameters": {
        "type": "object",
        "properties": {
          "location": {
            "type": "string",
            "description": "The city and state, e.g. San Francisco, CA"
          },
          "unit": {
            "type": "string",
            "enum": ["celsius", "fahrenheit"]
          }
        },
        "required": ["location"]
      }
    }
  ]
}'
对应的返回结果如下:
{
  "id": "chatcmpl-123",
  ...
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": "The weather in Boston is currently sunny with a temperature of 22 degrees Celsius.",
    },
    "finish_reason": "stop"
  }]
}

解析上面的 message 中的 content 内容,就可以展示响应的信息给到用户了。


总结
Chat Completions 接口中新增的 Function Calling 功能可以很好解决 GPT 知识陈旧以及缺少手脚的问题,是对 GPT 能力的一次大升级。其主要流程为:
声明函数:定义当前函数的名称,描述,以及对应的参数信息,并请求对应的接口;
解析函数参数:接受对应的接口返回,并解析对应的函数参数信息;
执行函数:根据对应的参数信息调用本地函数;
上报结果:将本地函数执行的结果上报给 OpenAI 接口;

个人推测 Function Calling 是 ChatGPT Plugin 功能的底层实现技术支撑,有了这个功能 LLM 应用开发变得更加稳定可靠,同时也会有人基于这个这个技术开发出一套第三方的 GPT Plugin 商店;
除此之外,想必在 LLM 开发层也会有对应的动作:

LangChain 类似的工具会快速跟进支持(已经支持了);
像 Google Bart 之类自研 LLM 的厂家会及时跟进开发类似的功能;
开源的 LLM 应该也会很快的推出基于 Function Calling 类似的微调方案,使开源的 LLM 也能装上“手脚”;

后面会基于 Function Calling 功能讲解更多的实际案例,欢迎关注。

用户评论