Ir para conteúdo
  • Cadastre-se

Colocando o ChatGPT para ler seu Projeto L2J


agaZe

Posts recomendados

Nattan Felipe
Esse post foi reconhecido por Nattan Felipe!

agaZe foi premiado com o selo 'Útil ' e 100 pontos.

Isso aqui é muito Básico, mas pode ajudar muito a você iniciante que ainda não tem o caminho das pedras em mãos.
Ao invés de tirar uma dúvida genérica no chatgpt, faça upload do seu projeto (.zip) no chatGPT ou faça upload no Github e depois cole o link no chatgpt. 

Não resolve tudo. Mas vai te ajudar bastante!!
Espero lhe ajudar com essa dica. 

aqui tem um exemplo: tive uma dúvida com a FASTMAP e não tinha a quem perguntar no momento. Joguei meu projeto todo no GPT e pedi uma ajuda..


image.png.8c3f88faac4798c7b10a4a04d1acc2f0.png

Link para o comentário
Compartilhar em outros sites


  • L2JBr ADM

Esse material é interessante, com o seu progresso poste mais sobre o uso do chatgpt para o emulador, eu também uso e cobre boa parte das duvidas que eu levaria horas em google e stacksoverflows da vida.

Link para o comentário
Compartilhar em outros sites

Também há a possibilidade de usar um modelo de LLM localmente pelo

O conteúdo está oculto, favor efetuar login ou se cadastrar!
 (com interface
O conteúdo está oculto, favor efetuar login ou se cadastrar!
).

Se quiserem eu posto um tutorial de como rodar, escolher os modelos de linguagem e etc.

8cp1z10.png
Link para o comentário
Compartilhar em outros sites

  • L2JBr ADM
46 minutos atrás, mend3 disse:

Também há a possibilidade de usar um modelo de LLM localmente pelo

O conteúdo está oculto, favor efetuar login ou se cadastrar!
 (com interface
O conteúdo está oculto, favor efetuar login ou se cadastrar!
).

Se quiserem eu posto um tutorial de como rodar, escolher os modelos de linguagem e etc.

Eu quero viu rsrsrs, tem muita diferença atualmente em usar esses LLM locais em relação essas webs? A velocidade obvio deve ser maior ne? 
Mas a assertividade também é boa?

Link para o comentário
Compartilhar em outros sites

Sim. O custo, desempenho, disponibilidade e foco são os principais diferenciais.

Os modelos online costumam ser mais performáticos e recebem atualizações e melhorias automaticamente por parte do provedor (e.g.: Chat GPT => Open AI, Gemini => Google, Grok => x "antigo twitter"). Possui a versão free que já assiste boa parte dos usuários e também as versões pagas.

Os modelos que podemos rodar no nosso próprio computador (e.g.: Ollama), funcionam offline - dependendo de internet somente durante o processo de instação e setup, são gratuitos e contam com contribuição da comunidade entidades para que consigam ser utilizados de forma prática pelos usuários e no formato OpenSource (

O conteúdo está oculto, favor efetuar login ou se cadastrar!
). Você pode treinar um contexto específico para o tipo de inteligência que precisar para uma situação específica. Ou seja, é possível treinar uma AI que leia e entenda o seu código e seja capaz de fornecer (e inclusive executar seu código) melhorias para o projeto. Tudo isso ao custo de um bom hardware para poder arcar com o custo de processamento.

Hoje em dia, há vários bons modelos para hardwares a partir de 16GB RAM + GPU.

8cp1z10.png
Link para o comentário
Compartilhar em outros sites

2 horas atrás, mend3 disse:

Sim. O custo, desempenho, disponibilidade e foco são os principais diferenciais.

Os modelos online costumam ser mais performáticos e recebem atualizações e melhorias automaticamente por parte do provedor (e.g.: Chat GPT => Open AI, Gemini => Google, Grok => x "antigo twitter"). Possui a versão free que já assiste boa parte dos usuários e também as versões pagas.

Os modelos que podemos rodar no nosso próprio computador (e.g.: Ollama), funcionam offline - dependendo de internet somente durante o processo de instação e setup, são gratuitos e contam com contribuição da comunidade entidades para que consigam ser utilizados de forma prática pelos usuários e no formato OpenSource (

O conteúdo está oculto, favor efetuar login ou se cadastrar!
). Você pode treinar um contexto específico para o tipo de inteligência que precisar para uma situação específica. Ou seja, é possível treinar uma AI que leia e entenda o seu código e seja capaz de fornecer (e inclusive executar seu código) melhorias para o projeto. Tudo isso ao custo de um bom hardware para poder arcar com o custo de processamento.

Hoje em dia, há vários bons modelos para hardwares a partir de 16GB RAM + GPU.

Eu criei um dataset com base o projeto da L2jmega e assim puis para treinar 
image.png.7b0152a90a7c056c7e7a55f050844482.png

 

Editado por FUSI0N
  • Gostei 3
  • Amei 1
Link para o comentário
Compartilhar em outros sites

Baixei o ollama e testei com o llama3 de 8b (é o que minha gpu suporta), e é legal, mas é necessário conter as expectativas. A inferioridade em relação aos modelos comerciais é muito grande, então pra quem não tem um hardware muito bom mesmo, é mais um playground para testes.

Usei o AnythingLLM para analisar alguns arquivos java e um pdf mas os resultados não foram bons

Editado por coldplay
Link para o comentário
Compartilhar em outros sites

21 horas atrás, coldplay disse:

Baixei o ollama e testei com o llama3 de 8b (é o que minha gpu suporta), e é legal, mas é necessário conter as expectativas. A inferioridade em relação aos modelos comerciais é muito grande, então pra quem não tem um hardware muito bom mesmo, é mais um playground para testes.

Usei o AnythingLLM para analisar alguns arquivos java e um pdf mas os resultados não foram bons

Sim se alguem poder ajuda tenho uma maquina de 32gb e cpu de 8core estou tentando treinar com base a l2jMega mais devo esta fazendo alguma coisa errada....

Link para o comentário
Compartilhar em outros sites

  • L2JBr ADM
Em 17/06/2024 at 11:10, mend3 disse:

Sim. O custo, desempenho, disponibilidade e foco são os principais diferenciais.

Os modelos online costumam ser mais performáticos e recebem atualizações e melhorias automaticamente por parte do provedor (e.g.: Chat GPT => Open AI, Gemini => Google, Grok => x "antigo twitter"). Possui a versão free que já assiste boa parte dos usuários e também as versões pagas.

Os modelos que podemos rodar no nosso próprio computador (e.g.: Ollama), funcionam offline - dependendo de internet somente durante o processo de instação e setup, são gratuitos e contam com contribuição da comunidade entidades para que consigam ser utilizados de forma prática pelos usuários e no formato OpenSource (

O conteúdo está oculto, favor efetuar login ou se cadastrar!
). Você pode treinar um contexto específico para o tipo de inteligência que precisar para uma situação específica. Ou seja, é possível treinar uma AI que leia e entenda o seu código e seja capaz de fornecer (e inclusive executar seu código) melhorias para o projeto. Tudo isso ao custo de um bom hardware para poder arcar com o custo de processamento.

Hoje em dia, há vários bons modelos para hardwares a partir de 16GB RAM + GPU.

Faz esse conteúdo ai tio, tou com meu PC parado seria bem legal fazer ele de laboratório pra isso rsrsrs.

Mas é como o parceiro falou ali em cima, o fato dos modelos online serem mais simplificados e terem um suporte maior por serem comerciais devem trazer resultados melhores, porem a velocidade é muito ruim, assino o GTP-Plus mas ultimamente não vi muita diferença do grátis em questão de velocidade, fora a instabilidade constante no sistema. 

Link para o comentário
Compartilhar em outros sites





×
×
  • Criar Novo...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.