Blog

OpenAI Function Calling学习笔记02:如何使用聊天模型调用函数

📅 2024-08-18

本文是基于OpenAI官方Cookbook中的《How to call functions with chat models》学习笔记。

通过OpenAI的Chat Completions API,结合自定义函数,可以打造更智能、更强大的对话代理。我们将详细介绍如何利用tools参数定义函数规范,并通过实际案例演示如何让模型生成符合规范的函数参数,从而实现与外部数据的交互。当前在function calling使用过程中可能遇到的问题,如模型对系统提示的遵循程度,这很大程度上是由模型能力决定。

...

OpenAI Function Calling学习笔记01

📅 2024-08-18

函数调用是OpenAI的 GPT-4 和 GPT-3.5 Turbo 模型的一项高级功能,它允许模型根据用户的指示决定是否调用特定的函数,并以结构化的形式返回信息,而不仅仅是提供文本回答。这种将大型语言模型与外部工具和API整合的能力,大大增强了模型的应用潜力。

例如,大模型本身无法获取实时天气信息,因为它没有实时数据功能。但通过函数调用,AI可以与外部系统互动,如访问信息检索系统、查询实时天气或执行代码等。这使得基于大型语言模型的智能代理能够执行更复杂的任务,显著提高了模型的实用性和应用范围。

...

OpenAI Docs Guides Embeddings

📅 2024-06-04

学习如何将文本转换为数字,从而解锁搜索等应用场景。

新的嵌入模型 text-embedding-3-small和text-embedding-3-large是我们最新且性能最强的嵌入模型,现在已经可用,具有更低的成本、更高的多语言性能,以及用于控制整体规模的新参数。

...

使用docker部署Xinference

📅 2024-06-04

Xorbits Inference (Xinference) 是一个开源平台,用于简化各种AI模型的运行和集成。借助Xinference,可以使用任何开源LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并创建强大的AI应用。

准备工作 #

  • Xinference 使用GPU加速推理,该镜像需要在有 GPU 显卡并且安装 CUDA 的机器上运行。
  • 保证CUDA在机器上正确安装。可以使用nvidia-smi检查是否正确运行。
  • 镜像中的CUDA版本为12.4。为了不出现预期之外的问题,请将宿主机的CUDA版本和NVIDIA Driver版本分别升级到12.4550以上。
  • 服务器已经安装docker(>=20.10.5)
  • 服务器已经安装NVIDIA Container Toolkit, 并配置docker的运行时为nvidia-container-runtime

拉取镜像 #

1docker pull xprobe/xinference:v<your_version>

启动容器 #

使用如下方式在容器内启动 Xinference,同时将9997端口映射到宿主机的9998端口:

...

Rook 1.13部署指南: 使用Rook 1.13部署和管理Ceph(Reef) 18.2.1

📅 2023-12-28

Rook是一个开源的云原生存储编排器,为Ceph存储提供平台、框架和支持,使其能够与云原生环境进行本地集成。Ceph是一个分布式存储系统,提供文件(file)、块(block)和对象存储(object storage),并在大规模生产集群中部署。

...

使用kubeadm部署Kubernetes 1.29

📅 2023-12-27

kubeadm是Kubernetes官方提供的用于快速安部署Kubernetes集群的工具。伴随Kubernetes每个版本的发布,kubeadm可能会对集群配置方面的一些实践做调整,通过实验kubeadm可以学习到Kubernetes官方在集群配置上一些新的最佳实践。

...

从源码编译安装PostgreSQL 16.x

📅 2023-11-13

PostgreSQL是一个开源的对象-关系数据库系统(ORDBMS),在灵活的BSD许可证下发行。 PostgreSQL事实上不被任何一家公司所掌控,PostgreSQL全球开发小组,是一个松散的组织,BSD许可协议是自由软件中使用最广泛的许可协议之一。 PostgreSQL在可靠性、稳定性上已经十分强大,并且被应用的十分广泛。

...

© 2025 青蛙小白 | 总访问量 | 总访客数