# 访问实例

## 使用 `Ollama` 镜像访问实例

一旦您的实例启动，可以通过 `WebUI` 或 JupyterLab 访问它：

1. 转到实例列表页面，点击 **实例访问** 列中的 <img src="https://2318250923-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F0CBWy7DFFtkhyEC9R4kE%2Fuploads%2Fgit-blob-933f2c27a8fa0ff2b8080f467af1fb539a6b4bb1%2Fimage%20(167).png?alt=media" alt="" data-size="line"> 或 <img src="https://2318250923-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F0CBWy7DFFtkhyEC9R4kE%2Fuploads%2Fgit-blob-700a43c53320599b70318220d53595a913b55be3%2Fimage%20(168).png?alt=media" alt="" data-size="line">。
2. 登录后，您将可以访问预装的软件，如 Llama、JupyterLab、Python 和 CUDA，开始运行您的任务。

## 使用 `Ubuntu` 镜像访问实例

1. 使用 SSH 客户端通过提供的密钥对连接到实例。

   ```bash
   ssh -i <path_to_key> ubuntu@<instance_ip_address>
   ```
2. 登录后，您将可以访问预装的软件，如 cuDNN、NvidiaDriver 和 CUDA，开始运行您的任务。

## 运行 AI/ML 工作负载

安装了 JupyterLab 和 Python 后，您可以无缝运行 AI/ML 任务，通过利用 GPU 的强大性能实现快速的模型训练和推理。

查看 GPU 使用情况的示例命令：

```bash
nvidia-smi
```
