
LLaMA-Factory Online: sem código, ajuste fino fácil 1. Introdução: (A cobertura funcional de link completo, de código baixo e pronta para uso da plataforma de serviços de treinamento e ajuste fino de modelos grandes on-line LLaMA-Factory Online é a cooperação oficial com o projeto de código aberto LLaMA-Factory ...

O Qwen3-FineTuning-Playground é um projeto de código aberto que fornece uma base de código completa dedicada ao ajuste fino da família Qwen3 de grandes modelos de linguagem. A base desse projeto é fornecer exemplos de código de ajuste fino claros, profissionais e facilmente extensíveis, de modo que os desenvolvedores e pesquisadores possam praticar facilmente uma variedade de micro ...

O Verifiers é uma biblioteca de componentes modulares para criar ambientes de Aprendizado por Reforço (RL) e treinar agentes de Modelagem de Linguagem Ampla (LLM). O objetivo desse projeto é fornecer um conjunto de ferramentas confiáveis que permitam aos desenvolvedores criar, treinar e avaliar facilmente os agentes LLM. O Verifiers contém uma ferramenta baseada em transformações ...

A Radal é uma plataforma de baixo código focada em ajudar as organizações a criar e otimizar rapidamente modelos de IA. Ela permite que os usuários treinem modelos de linguagem grande (LLMs) sem programação profunda por meio de uma interface intuitiva e recursos assistidos por IA. Desenvolvida por uma equipe de especialistas do setor e startups, a plataforma enfatiza soluções de IA eficientes e personalizadas para os setores de saúde, financeiro, imobiliário...

O WhiteLightning é uma ferramenta de linha de comando de código aberto projetada para ajudar os desenvolvedores a gerar rapidamente modelos leves de classificação de texto com uma única linha de comando. A ferramenta gera dados sintéticos usando um modelo de linguagem grande e treina modelos ONNX de menos de 1 MB por meio de técnicas de destilação entre professores e alunos, oferece suporte à operação totalmente off-line e é adequada para dispositivos de ponta, como Raspberry Pi, telefones celulares ou...

FineTuningLLMs é um repositório do GitHub criado pelo autor dvgodoy, com base em seu livro A Hands-On Guide to Fine-Tuning LLMs with PyTorch and Hugging Face. Esse repositório...

O ReCall é uma estrutura de código aberto projetada para treinar modelos de linguagem grande (LLMs) para invocação e inferência de ferramentas por meio do aprendizado por reforço, sem depender de dados supervisionados. Ele permite que os modelos usem e combinem de forma autônoma ferramentas externas, como pesquisa, calculadoras etc., para resolver tarefas complexas. O ReCall oferece suporte a ferramentas definidas pelo usuário e é adequado para o desenvolvimento de inteligências de uso geral. O projeto é baseado em ...

O GraphGen é uma estrutura de código aberto desenvolvida pelo OpenScienceLab, um laboratório de IA em Xangai, hospedado no GitHub, focado na otimização do ajuste fino supervisionado de LLMs (Large Language Models), orientando a geração de dados sintéticos por meio de gráficos de conhecimento. Ele constrói gráficos de conhecimento de granulação fina a partir do texto de origem, usando o Expected Calibration Error (ECE...

O MiniMind-V é um projeto de código aberto, hospedado no GitHub, criado para ajudar os usuários a treinar um modelo de linguagem visual (VLM) leve com apenas 26 milhões de parâmetros em menos de uma hora. Ele se baseia no modelo de linguagem MiniMind, no novo codificador visual e no módulo de projeção de recursos, com suporte para processamento conjunto de imagens e textos. O projeto ...

O DeepCoder-14B-Preview é um modelo de geração de código-fonte aberto desenvolvido pela equipe da Agentica e lançado na plataforma Hugging Face. Ele se baseia no DeepSeek-R1-Distilled-Qwen-14B, otimizado por técnicas de aprendizado por reforço distribuído (RL)...

O WeClone é um projeto de código aberto que permite aos usuários criar doppelgängers digitais personalizados usando registros de bate-papo e mensagens de voz do WeChat, combinados com grandes modelos de linguagem e tecnologia de síntese de voz. O projeto pode analisar os hábitos de bate-papo de um usuário para treinar o modelo e também pode gerar clones de voz realistas com um pequeno número de amostras de voz. Eventualmente, o doppelganger digital pode ser vinculado a um bot do WeChat para automatizar...

O Search-R1 é um projeto de código aberto desenvolvido por PeterGriffinJin no GitHub e baseado na estrutura veRL. Ele usa técnicas de aprendizagem por reforço (RL) para treinar um modelo de linguagem grande (LLM), de modo que o modelo aprenda de forma autônoma a raciocinar e invocar o mecanismo de busca para resolver problemas. Suporte ao projeto Qwen2....

O Optexity é um projeto de código aberto no GitHub, desenvolvido pela equipe do Optexity. Sua essência é usar dados de demonstração humana para treinar a IA para concluir tarefas de computador, especialmente operações de páginas da Web. O projeto consiste em três bibliotecas de código: ComputerGYM, AgentAI e Playwright...

O Bonsai é um modelo de linguagem de código aberto desenvolvido pela deepgrove-ai com um tamanho de parâmetro de 500 milhões, usando pesos ternários. Ele se baseia na arquitetura Llama e no design do classificador Mistral, com camadas lineares adaptadas para suportar pesos ternários. O modelo usa principalmente ...

O Second Me é um projeto de código aberto desenvolvido pela equipe Mindverse que permite criar uma IA em seu computador que atua como um “sósia digital”, aprendendo sua fala e seus hábitos por meio de suas palavras e memórias e tornando-se um assistente inteligente que o entende. Seu melhor recurso é que todos os dados permanecem locais, portanto, você não precisa carregá-los...

O Easy Dataset é uma ferramenta de código aberto projetada especificamente para o ajuste fino de modelos grandes (LLMs), hospedada no GitHub. Ela oferece uma interface fácil de usar que permite aos usuários fazer upload de arquivos, segmentar automaticamente o conteúdo, gerar perguntas e respostas e, por fim, gerar conjuntos de dados estruturados adequados para o ajuste fino. O desenvolvedor Conard Li criou ...

O MM-EUREKA é um projeto de código aberto desenvolvido pelo Shanghai Artificial Intelligence Laboratory, pela Shanghai Jiao Tong University e por outras partes. Ele amplia os recursos de raciocínio textual para cenários multimodais por meio de técnicas de aprendizagem por reforço baseadas em regras para ajudar os modelos a processar informações textuais e de imagem. O objetivo principal dessa ferramenta é melhorar o desempenho dos modelos em tarefas de raciocínio visual e matemático. Ela lança ...

O AI Toolkit by Ostris é um kit de ferramentas de IA de código aberto focado no suporte aos modelos Stable Diffusion e FLUX.1 para tarefas de treinamento e geração de imagens. Criado e mantido pelo desenvolvedor Ostris e hospedado no GitHub, o kit de ferramentas tem como objetivo fornecer aos pesquisadores e desenvolvedores uma modelagem flexível...

O X-R1 é uma estrutura de aprendizagem por reforço de código aberto no GitHub pela equipe dhcode-cpp, com o objetivo de fornecer aos desenvolvedores uma ferramenta eficiente e de baixo custo para modelos de treinamento com base na aprendizagem por reforço de ponta a ponta. Inspirado no DeepSeek-R1 e no open-r1, o projeto se concentra na criação de uma estrutura...
voltar ao topo

