📅 2024-06-05
这篇博文是基于OpenAI官方Cookbook中的以下四篇示例教程的学习笔记,主要涵盖了如何获取文本嵌入、可视化嵌入、聚类分析以及语义搜索等方面。
1.创建项目
#
使用poetry创建一个名称为openai-embedding-sample
的项目
...📅 2024-06-04
Xorbits Inference (Xinference) 是一个开源平台,用于简化各种AI模型的运行和集成。借助Xinference,可以使用任何开源LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并创建强大的AI应用。
准备工作
#
- Xinference 使用GPU加速推理,该镜像需要在有 GPU 显卡并且安装 CUDA 的机器上运行。
- 保证CUDA在机器上正确安装。可以使用
nvidia-smi
检查是否正确运行。 - 镜像中的CUDA版本为
12.4
。为了不出现预期之外的问题,请将宿主机的CUDA版本和NVIDIA Driver版本分别升级到12.4
和550
以上。 - 服务器已经安装docker(>=20.10.5)
- 服务器已经安装NVIDIA Container Toolkit, 并配置docker的运行时为
nvidia-container-runtime
拉取镜像
#
1docker pull xprobe/xinference:v<your_version>
启动容器
#
使用如下方式在容器内启动 Xinference,同时将9997端口映射到宿主机的9998端口:
...📅 2024-06-03
Hugging Face 作为目前自然语言处理领域最热门的平台之一,提供了海量预训练模型。本文将介绍如何使用 huggingface-cli 下载各种模型,并通过实例演示其使用方法。
安装huggingface-cli
#
安装环境信息如下:
- 操作系统: Ubuntu 24.04
- 安装用户: 系统普通用户(非root, 非特权用户)
- Python版本: 3.11 (注Ubuntu 24.04内置安装了Python 3.12, Python 3.11需额外安装)
安装过程如下:
...