0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Transformers.js 2.13、2.14 发布,新增8个新的架构

新机器视觉 来源:前段圈 2024-01-23 16:31 次阅读
Transformers.js 作者 Joshua Lochner 在 GitHub 宣传 Transformers.js v2.13 和 v2.14 发布。具体更新如下(文中提到的链接,可通过阅读原文获取):
8 个新的架构!这个版本支持了很多新的多模态架构,能够支持的架构总数达到了 80 个!1.支持超过 1000 种语言的多语种文本转语音的 VITS!(#466)
import { pipeline } from '@xenova/transformers';


// Create English text-to-speech pipeline
const synthesizer = await pipeline('text-to-speech', 'Xenova/mms-tts-eng');


// Generate speech
const output = await synthesizer('I love transformers');
// {
//   audio: Float32Array(26112) [...],
//   sampling_rate: 16000
// }
请参阅此处了解可用模型的列表。首先,我们在 Hugging Face Hub 上转换了约 1140 个模型中的 12 个。如果其中没有你想要的,可以使用我们的转换脚本自行转换。

2. CLIPSeg 用于零样本图像分割。(#478)

import { AutoTokenizer, AutoProcessor, CLIPSegForImageSegmentation, RawImage } from '@xenova/transformers';


// Load tokenizer, processor, and model
const tokenizer = await AutoTokenizer.from_pretrained('Xenova/clipseg-rd64-refined');
const processor = await AutoProcessor.from_pretrained('Xenova/clipseg-rd64-refined');
const model = await CLIPSegForImageSegmentation.from_pretrained('Xenova/clipseg-rd64-refined');


// Run tokenization
const texts = ['a glass', 'something to fill', 'wood', 'a jar'];
const text_inputs = tokenizer(texts, { padding: true, truncation: true });


// Read image and run processor
const image = await RawImage.read('https://github.com/timojl/clipseg/blob/master/example_image.jpg?raw=true');
const image_inputs = await processor(image);


// Run model with both text and pixel inputs
const { logits } = await model({ ...text_inputs, ...image_inputs });
// logits: Tensor {
//   dims: [4, 352, 352],
//   type: 'float32',
//   data: Float32Array(495616)[ ... ],
//   size: 495616
// }

您可以按如下方式可视化预测结果:

const preds = logits
  .unsqueeze_(1)
  .sigmoid_()
  .mul_(255)
  .round_()
  .to('uint8');


for (let i = 0; i < preds.dims[0]; ++i) {
  const img = RawImage.fromTensor(preds[i]);
  img.save(`prediction_${i}.png`);
}

Original "a glass" "something to fill" "wood" "a jar"
7431df5a-b9b7-11ee-8b88-92fbcf53809c.png 745c99e8-b9b7-11ee-8b88-92fbcf53809c.png 7466c42c-b9b7-11ee-8b88-92fbcf53809c.png 7478712c-b9b7-11ee-8b88-92fbcf53809c.png 7481d276-b9b7-11ee-8b88-92fbcf53809c.png

请查看此处以获取可用模型列表。

3. SegFormer 用于语义分割和图像分类。(#480)

import { pipeline } from '@xenova/transformers';


// Create an image segmentation pipeline
const segmenter = await pipeline('image-segmentation', 'Xenova/segformer_b2_clothes');


// Segment an image
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/young-man-standing-and-leaning-on-car.jpg';
const output = await segmenter(url);

748c26fe-b9b7-11ee-8b88-92fbcf53809c.jpg

4. Table Transformer 用于从非结构化文档中提取表格。(#477)

import { pipeline } from '@xenova/transformers';


// Create an object detection pipeline
const detector = await pipeline('object-detection', 'Xenova/table-transformer-detection', { quantized: false });


// Detect tables in an image
const img = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/invoice-with-table.png';
const output = await detector(img);
// [{ score: 0.9967531561851501, label: 'table', box: { xmin: 52, ymin: 322, xmax: 546, ymax: 525 } }]

5. DiT用于文档图像分类。(#474)

import { pipeline } from '@xenova/transformers';


// Create an image classification pipeline
const classifier = await pipeline('image-classification', 'Xenova/dit-base-finetuned-rvlcdip');


// Classify an image 
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/coca_cola_advertisement.png';
const output = await classifier(url);
// [{ label: 'advertisement', score: 0.9035086035728455 }]

6. SigLIP用于零样本图像分类。(#473)

import { pipeline } from '@xenova/transformers';


// Create a zero-shot image classification pipeline
const classifier = await pipeline('zero-shot-image-classification', 'Xenova/siglip-base-patch16-224');


// Classify images according to provided labels
const url = 'http://images.cocodataset.org/val2017/000000039769.jpg';
const output = await classifier(url, ['2 cats', '2 dogs'], {
    hypothesis_template: 'a photo of {}',
});
// [
//   { score: 0.16770583391189575, label: '2 cats' },
//   { score: 0.000022096000975579955, label: '2 dogs' }
// ]

7. RoFormer 用于蒙版语言建模、序列分类、标记分类和问题回答。(#464)

import { pipeline } from '@xenova/transformers';


// Create a masked language modelling pipeline
const pipe = await pipeline('fill-mask', 'Xenova/antiberta2');


// Predict missing token
const output = await pipe('Ḣ Q V Q ... C A [MASK] D ... T V S S');

8.分段任意模型 (SAM)

分段任意模型(SAM)可以在给定输入图像和输入点的情况下,用于生成场景中对象的分割蒙版。请查看此处以获取完整的预转换模型列表。对该模型的支持已在#510中添加。

例子+源码:https://huggingface.co/spaces/Xenova/segment-anything-web

示例:使用 Xenova/slimsam-77-uniform 执行掩模生成。

import { SamModel, AutoProcessor, RawImage } from '@xenova/transformers';


const model = await SamModel.from_pretrained('Xenova/slimsam-77-uniform');
const processor = await AutoProcessor.from_pretrained('Xenova/slimsam-77-uniform');


const img_url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/corgi.jpg';
const raw_image = await RawImage.read(img_url);
const input_points = [[[340, 250]]] // 2D localization of a window


const inputs = await processor(raw_image, input_points);
const outputs = await model(inputs);


const masks = await processor.post_process_masks(outputs.pred_masks, inputs.original_sizes, inputs.reshaped_input_sizes);
console.log(masks);
// [
//   Tensor {
//     dims: [ 1, 3, 410, 614 ],
//     type: 'bool',
//     data: Uint8Array(755220) [ ... ],
//     size: 755220
//   }
// ]
const scores = outputs.iou_scores;
console.log(scores);
// Tensor {
//   dims: [ 1, 1, 3 ],
//   type: 'float32',
//   data: Float32Array(3) [
//     0.8350210189819336,
//     0.9786665439605713,
//     0.8379436731338501
//   ],
//   size: 3
// }

这样可以将这三个预测蒙板可视化:

const image = RawImage.fromTensor(masks[0][0].mul(255));
image.save('mask.png');
Input image Visualized output

74990bbc-b9b7-11ee-8b88-92fbcf53809c.jpg

74aecbbe-b9b7-11ee-8b88-92fbcf53809c.png

接下来,选择 IoU 分数最高的通道,在本例中是第二个(绿色)通道。将其与原始图像相交,我们得到了该主题的孤立版本:

Selected Mask Intersected

74b58dbe-b9b7-11ee-8b88-92fbcf53809c.png

74b98e00-b9b7-11ee-8b88-92fbcf53809c.png

其他改进

  • 修复了@Lian1230在#461中提交的关于Next.js Dockerfile的HOSTNAME 问题。

  • 在#467中,在 README 中添加了空模板的链接。

  • 在 #503 中添加对使用 ConvNextFeatureExtractor 处理非方形图像的支持

  • 通过 #507 对远程 URL 中的修订进行编码

  • @Lian1230 在 #461 中进行了他们的首次贡献。

改进#485中的pipeline函数的类型。感谢@wesbos提出的建议!

意味着当您将鼠标悬停在类名称上时,您将获得示例代码来帮助您。

74c71cc8-b9b7-11ee-8b88-92fbcf53809c.gif

此版本是 #485 的后续版本,具有额外的以智能感知为中心的改进(请参阅 PR)。

添加对跨编码器模型的支持(+修复令牌类型 ID)(#501)

示例:使用 Xenova/ms-marco-TinyBERT-L-2-v2 进行信息检索。

import { AutoTokenizer, AutoModelForSequenceClassification } from '@xenova/transformers';


const model = await AutoModelForSequenceClassification.from_pretrained('Xenova/ms-marco-TinyBERT-L-2-v2');
const tokenizer = await AutoTokenizer.from_pretrained('Xenova/ms-marco-TinyBERT-L-2-v2');


const features = tokenizer(
    ['How many people live in Berlin?', 'How many people live in Berlin?'],
    {
        text_pair: [
            'Berlin has a population of 3,520,031 registered inhabitants in an area of 891.82 square kilometers.',
            'New York City is famous for the Metropolitan Museum of Art.',
        ],
        padding: true,
        truncation: true,
    }
)


const { logits } = await model(features)
console.log(logits.data);
// quantized:   [ 7.210887908935547, -11.559350967407227 ]
// unquantized: [ 7.235750675201416, -11.562294006347656 ]


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 源码
    +关注

    关注

    8

    文章

    573

    浏览量

    28589
  • 模型
    +关注

    关注

    1

    文章

    2704

    浏览量

    47689
  • 架构
    +关注

    关注

    1

    文章

    484

    浏览量

    25200

原文标题:Transformers.js 2.13、2.14 发布,新增 8 个新的架构

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    使用基于Transformers的API在CPU上实现LLM高效推理

    英特尔 Extension for Transformers是英特尔推出的一个创新工具包,可基于英特尔 架构平台,尤其是第四代英特尔 至强 可扩展处理器(代号 SapphireRapids,SPR)显著加速基于Transformers
    的头像 发表于 01-22 11:11 1917次阅读
    使用基于<b class='flag-5'>Transformers</b>的API在CPU上实现LLM高效推理

    Hanlp1.7版本的新增功能一览

    `Hanlp1.7版本在去年下半年的时候就随大快的DKH1.6版本同时发布了,截至目前1.7大版本也更新到了1.7.1了。本篇分别就1.7.0和1.7.1中新增的功能做一简单的汇总介绍。HanLP
    发表于 03-22 09:56

    用户管理-动态调用VI(新增用户插件)

    介绍一种基于动态调用VI的用户登录管理的方法,结合之前介绍的源代码发布,将新增的用户信息(一独立的VI)以源代码发布的形式(去除程序面板)放入指定User List文件夹下,即使生成
    发表于 04-26 22:40

    DevEco Studio 2.2 Beta2新版本发布,SDK API6正式Release

    ReleaseHarmonyOS SDK API6升级为Release版本,版本号为2.2.0.3,配套的编译构建插件为2.4.5.5。新版本较前一版本在接口内容上无新增和变更。但对于JS API,部分在API6
    发表于 09-15 17:28

    OpenHarmony 3.0 LTS 新增特性功能

    内容:标准系统新增特性功能用户程序框架支持服务能力(ServiceAbility,DataAbility)和线程模型。支持文件安全访问,即文件转成URI和解析URI打开文件的能力。支持设备管理PIN码
    发表于 09-30 08:24

    94JS/eTS开源组件首发上新,肯定有你要用的一款!

    2021年的华为开发者大会(HDC2021)上,我们发布了新一代的声明式UI框架——方舟开发框架(ArkUI)。 ArkUI框架引入了基于TS扩展的声明式开发范式。自此,越来越多的开发者加入到JS
    发表于 05-09 14:51

    HarmonyOS 3.0 Beta版本说明

    与OpenHarmony SDK配套使用。配套JS/eTS SDK、Native SDK,推荐使用JS/eTS进行应用开发。OpenHarmony SDK新增API Version 8
    发表于 07-07 14:16

    面向开发者的HarmonyOS 3.0 Beta发布

    与OpenHarmony SDK配套使用。● 配套JS/eTS SDK、Native SDK,推荐使用JS/eTS进行应用开发。● OpenHarmony SDK新增API Version 8
    发表于 07-08 11:14

    OpenHarmony 3.2 Beta2 版本发布:支持电源管理重启恢复机制等

    worker传递I58034 【增强特性】使用libuv统一JS Looper机制I57ZZH 【新增特性】提供创建不同Hap包上下文能力NA包管理新增默认应用管理能力,支持众测应用、获取包指纹信息等
    发表于 08-02 10:31

    DevEco Studio 3.1 Beta1版本发布——新增六大关键特性,开发更高效

    、开发、编译、调试等功能。2023年2月16日发布的DevEco Studio 3.1 Beta1版本,在Canary1版本基础上,新增以下关键特性:-> 新增支持Windows 11
    发表于 02-24 11:22

    GPU-Z 2.26.0正式发布 新增对部分假冒显卡核心的支持

    TechPowerUp刚刚发布了最新版的GPU-Z 2.26.0,除了支持部分新硬件,还修复了大量Bug,并新增了对部分假冒显卡核心的支持,再也不怕被JS坑了。
    发表于 10-09 15:26 622次阅读

    微雪电子树莓派2.13寸柔性屏介绍

    2.13寸柔性墨水屏 212×104分辨率 黑白 e-paper 电子纸 功耗低、视角宽、断电仍可清晰显示 基于树莓派设计 也可以接Raspberry/Jetson Nano/Arduino/STM32等 型号 2.13inch e-Paper HAT (D)
    的头像 发表于 11-25 11:02 1044次阅读
    微雪电子树莓派<b class='flag-5'>2.13</b>寸柔性屏介绍

    微雪电子2.13寸电子纸裸屏简介

    2.13寸电子墨水屏 电子纸屏 250122分辨率 黑白 支持局部刷新 功耗低、视角宽、断电仍可清晰显示 可接入Raspberry/Jetson Nano/Arduino/Nucleo等主控板
    的头像 发表于 01-09 10:42 1713次阅读
    微雪电子<b class='flag-5'>2.13</b>寸电子纸裸屏简介

    汉朔2.13寸电子水墨屏的电子标签把玩

    汉朔2.13寸电子水墨屏的电子标签把玩
    发表于 11-30 13:51 16次下载
    汉朔<b class='flag-5'>2.13</b>寸电子水墨屏的电子标签把玩

    Transformers的功能概述

    近年来,我们听说了很多关于Transformers的事情,并且在过去的几年里,它们已经在NLP领域取得了巨大成功。Transformers是一种使用注意力机制(Attention)显著改进深度学习
    的头像 发表于 01-23 10:15 231次阅读
    <b class='flag-5'>Transformers</b>的功能概述