About
Responsible for managing the Commercial Strategy Business Analytics team at TOTVS, structuring and governing our data sources for the development, implementation and maintenance of indicators (KPIs/OKRs) that support the commercial teams (LATAM) and S&OP through external insights and CRM for decision-making and goal management focused on sales performance and revenue growth. I am passionate about emerging trends such as Artificial Intelligence (AI, Machine Learning, Big Data, VR, AR) and am constantly upgrading my skills to keep up with the rapid pace of technological change. I firmly believe that digital transformation and the adoption of a data-driven culture are essential for business success in the information age. Experience Senior professional with experience in the Technology, Telecommunications and BPO sectors in large companies in the management of multidisciplinary teams of Business Analytics, Business Intelligence, Projects and Products. This experience allows me to move and relate well with the entire business chain and its stakeholders' with an "end-to-end" vision, always identifying trends, developing appropriate solutions for the business. Exercise of leadership always focusing on team development, strong communication skills, analytical thinking and relentless interest in new technologies and innovation. Positions: Gen AI Chapter Lead at TOTVS (2025 - Present), Gen AI Strategist at TOTVS (2024 - 2025), Coordenador de Business Analytics at TOTVS (2021 - 2024), Embaixador at TripleTen Brasil (2025 - Present), Professor de Cursos Livres at ESPM Escola Superior de Propaganda e Marketing (2024 - Present), Business Influencer e Palestrante at Gombo (2024 - Present), Membro at AI Brasil (2024 - Present), Business Intelligence Coordinator at Tahto (2018 - 2020), Project Specialist at Tahto (2017 - 2018), Product Specialist at Oi S.A (2014 - 2017), Customer Retention Coordinator at BT Call Center S/A at BT Call Center (2013 - 2014), Information Analyst ( Customer Retention ) at BT Call Center at BT Call Center (2008 - 2013), Operations Supervisor ( GSM Operations ) at Brasil Telecom GSM at Teleperformance CRM S/A (2004 - 2008) Skills: AI, IA generativa, Ética, Regressão linear, Business Intelligence (BI), Data Science, Inovação de produtos, Análise de dados, Liderança, Inteligência artificial, AR, Python, Artificial Intelligence, Estratégia, Fidelidade dos clientes, Habilidades analíticas, Web3, NFT, Microsoft Power BI, SQL, Gestão de projetos, Liderança de equipe, KPI Dashboards, Telecomunicações, Indicadores-chave de desempenho, Data Analysis, Telecommunications, Gestão de produtos, PDCA, Customer Retention, Operations Management, Estratégia empresarial, Business Strategy, Planejamento estratégico, Data Storytelling, Visualização de dados, Microsoft Office, Microsoft SQL Server, Microsoft Excel, Microsoft PowerPoint, Gestão, Negociação, Team Leadership, SAC, Management, Negotiation, Gestão de Pessoas, Atendimento ao Consumidor, People-oriented, Atendimento ao Cliente Recent Posts: 🚨 Em primeira mão, obtive acesso ao recém lançado "Canva Code". Isso mesmo, o Canva agora gera códigos, mini apps, landing pages assim como Lovable, Bolt e afins. Mas não se engane. O público aqui é outro. Nesse video (que acelerei pra ficar mais objetivo) usei o seguinte prompt: "Crie uma landing page moderna e flexível para um profissional de IA Generativa chamado Leo Candido. Quero que a landing page tenha fundo preto, use elementos de glassmorfismo e tenha todas as seções comuns em uma landing page que tem objetivo de coletar leads. Use o design da Framer como exemplo." Em outro que não está no vídeo o prompt foi o seguinte: "Crie um jogo interativo de exploração espacial em 3D. Comece com um exemplo de “Explorador do Sistema Solar” mostrando os planetas do nosso sistema solar seguindo uma física realista, controles de navegação intuitivos e sobreposições educacionais sobre mecânica orbital e distâncias relativas." Ele gerou com um único prompt. Sem erros. E nesse caso específico demorou mais mas gerou quase 1000 linhas de código escritas sem interrupção. E é isso, até o Canva entrou na onda e o Vibe coding veio mesmo pra ficar. Além de gerar imagens com novos estilos sem perder a composição original, agora ele também: - Cria documentos inteiros a partir de comandos de texto, com o Magic Write. - Gera códigos e elementos interativos para sites e apresentações com o Canva Code sem você precisar programar uma linha sequer. É basicamente design, texto e até funcionalidades interativas, tudo no mesmo lugar. E tudo controlado por prompts. Parece simples, e é. Mas esse “simples” tem impacto direto na produtividade de quem vive de criar. Se antes ele era mais uma opção acessível, agora ele começa a virar também uma ferramenta de automação criativa o que muda tudo para profissionais de conteúdo, design e até produto. Novos tempos para muitas áreas profissionais! O que vocês acham? 🚨 Em primeira mão, obtive acesso ao recém lançado "Canva Code". Isso mesmo, o Canva agora gera códigos, mini apps, landing pages assim como Lovable, Bolt e afins. Mas não se engane. O público aqui é outro. Nesse video (que acelerei pra ficar mais objetivo) usei o seguinte prompt: "Crie uma landing page moderna e flexível para um profissional de IA Generativa chamado Leo Candido. Quero que a landing page tenha fundo preto, use elementos de glassmorfismo e tenha todas as seções comuns em uma landing page que tem objetivo de coletar leads. Use o design da Framer como exemplo." Em outro que não está no vídeo o prompt foi o seguinte: "Crie um jogo interativo de exploração espacial em 3D. Comece com um exemplo de “Explorador do Sistema Solar” mostrando os planetas do nosso sistema solar seguindo uma física realista, controles de navegação intuitivos e sobreposições educacionais sobre mecânica orbital e distâncias relativas." Ele gerou com um único prompt. Sem erros. E nesse caso específico demorou mais mas gerou quase 1000 linhas de código escritas sem interrupção. E é isso, até o Canva entrou na onda e o Vibe coding veio mesmo pra ficar. Além de gerar imagens com novos estilos sem perder a composição original, agora ele também: - Cria documentos inteiros a partir de comandos de texto, com o Magic Write. - Gera códigos e elementos interativos para sites e apresentações com o Canva Code sem você precisar programar uma linha sequer. É basicamente design, texto e até funcionalidades interativas, tudo no mesmo lugar. E tudo controlado por prompts. Parece simples, e é. Mas esse “simples” tem impacto direto na produtividade de quem vive de criar. Se antes ele era mais uma opção acessível, agora ele começa a virar também uma ferramenta de automação criativa o que muda tudo para profissionais de conteúdo, design e até produto. Novos tempos para muitas áreas profissionais! O que vocês acham? Sim, uma luta mesmo. Tipo Gigantes de Aço, só que sem o Hugh Jackman. A Unitree Robotics anunciou que vai transmitir uma luta entre robôs no mês que vem. Com tudo que está acontecendo agora vocês conseguem pensar em como serão os próximos 5 ou 10 anos? Comenta aí! Gostaria de compartilhar que estou começando em um novo cargo de Embaixador na TripleTen Brasil. Feliz em firmar parceria com uma potência na formação de talentos em tecnologia, com uma abordagem prática, focada em empregabilidade e impacto real. Vamos juntos ampliar o acesso à educação de qualidade e preparar a próxima geração de profissionais tech! Olha aí! Quem seguiu minha dica vai testar o Claude Code 0800. Receberam os créditos? Comparativo de landing page criada no Firebase Studio x Lovable x Bolt x Base44. O prompt foi extremamente simples: "Crie uma landing page moderna e flexível com elementos de glasmorfismo para um profissional de IA Generativa chamado Leo Candido. Use as cores azul roxo e preto para compor a estética." O recado é, sim o Fireabase Studio tem tudo pra ser uma stack completa de desenvolvimento com IA. Mas se você é um usuário que depende 100% das habilidades dele para viabilizar sua entrega, principalmente do ponto de vista de design, ainda não é a hora de migrar pra ele. O lovable é indiscutivelmente o melhor em Front end aqui.. Para usuários mais experientes usando para criar código de Backend ou refatorar códigos acho que continua sendo uma boa pedida por conta do Gemini 2.5 pro. Deve melhorar com o tempo! Deixem as opiniões de vocês aí! Comparativo de landing page criada no Firebase Studio x Lovable x Bolt x Base44. O prompt foi extremamente simples: "Crie uma landing page moderna e flexível com elementos de glasmorfismo para um profissional de IA Generativa chamado Leo Candido. Use as cores azul roxo e preto para compor a estética." O recado é, sim o Fireabase Studio tem tudo pra ser uma stack completa de desenvolvimento com IA. Mas se você é um usuário que depende 100% das habilidades dele para viabilizar sua entrega, principalmente do ponto de vista de design, ainda não é a hora de migrar pra ele. O lovable é indiscutivelmente o melhor em Front end aqui.. Para usuários mais experientes usando para criar código de Backend ou refatorar códigos acho que continua sendo uma boa pedida por conta do Gemini 2.5 pro. Deve melhorar com o tempo! Deixem as opiniões de vocês aí! 🚨 O Gigante acordou. Google libera o Firebase Studio. Seu IDE com IA Generativa Fullstack para Backend, Frontend e Mobile que junto com o Gemini 2.5 PRO provavelmente vai quebrar algumas startups por aí. O Firebase Studio é um workspace completo com IA. Você cria backends, front ends e apps mobile no mesmo lugar Com IA assistindo seu código, testando, explicando, refatorando e até tomando decisões por você. Mas o que chama atenção não é só o pacote. É o contexto. O Google tá criando um ecossistema acessível, funcional e recheado de IA pra todo tipo de dev. E com integração direta ao Gemini, incluindo assistentes como o Code Assist (que já tem fila de espera pra early access). Você pode: - Prototipar um app com comandos em linguagem natural, mockups ou até capturas de tela. - Importar seu projeto do GitHub, GitLab ou até do seu desktop. - Testar em tempo real com web previews e emuladores Android. - E publicar direto no Firebase ou na infra que quiser com dois cliques. Hoje, qualquer dev pode usar 3 workspaces grátis, e quem participa do Google Developer Program pode ter até 30 workspaces. Será que estamos vendo o nascimento do melhor ambiente de desenvolvimento com IA do mercado ou será que o preço “zero” ainda vai fazer muita gente subestimar o que está sendo entregue? Detalhe, a sobrecarga foi tão pesada que o site está pedindo pra dar um tempinho e voltar depois. Comenta aí! Na sua opinião como ficam Cursor, Windsurf, Lovable , Bolt e afins nessa história? Link nos comentários! 🚨 O Gigante acordou. Google libera o Firebase Studio. Seu IDE com IA Generativa Fullstack para Backend, Frontend e Mobile que junto com o Gemini 2.5 PRO provavelmente vai quebrar algumas startups por aí. O Firebase Studio é um workspace completo com IA. Você cria backends, front ends e apps mobile no mesmo lugar Com IA assistindo seu código, testando, explicando, refatorando e até tomando decisões por você. Mas o que chama atenção não é só o pacote. É o contexto. O Google tá criando um ecossistema acessível, funcional e recheado de IA pra todo tipo de dev. E com integração direta ao Gemini, incluindo assistentes como o Code Assist (que já tem fila de espera pra early access). Você pode: - Prototipar um app com comandos em linguagem natural, mockups ou até capturas de tela. - Importar seu projeto do GitHub, GitLab ou até do seu desktop. - Testar em tempo real com web previews e emuladores Android. - E publicar direto no Firebase ou na infra que quiser com dois cliques. Hoje, qualquer dev pode usar 3 workspaces grátis, e quem participa do Google Developer Program pode ter até 30 workspaces. Será que estamos vendo o nascimento do melhor ambiente de desenvolvimento com IA do mercado ou será que o preço “zero” ainda vai fazer muita gente subestimar o que está sendo entregue? Detalhe, a sobrecarga foi tão pesada que o site está pedindo pra dar um tempinho e voltar depois. Comenta aí! Na sua opinião como ficam Cursor, Windsurf, Lovable , Bolt e afins nessa história? Link nos comentários! Sim, já salva aí! mais de 300 servidores MCP prontos para uso com agentes de IA. E todos eles em um repositório aberto no GitHub. Se você está explorando o universo dos agentes autônomos ou construindo fluxos baseados em IA, esse repositório é praticamente um playground com tudo que você vai precisar: servidores prontos, testados e categorizados. São mais de 300 opções para: - Testes rápidos com novos agentes - Deploy de soluções completas - Exploração de diferentes estratégias de contexto Tudo aberto. E antes que alguém diga "mas nem todo mundo sabe mexer com isso", vale lembrar: ter uma boa curadoria de ferramentas economiza tempo, evita retrabalho e ajuda a aprender mais rápido. A separação por categorias está tão bem feita que parece que alguém gastou mais tempo pensando na organização do que no código em si. E sinceramente? Ainda bem. Se você trabalha com IA, essa dica vale ser salva e compartilhada! Link nos comentários. Sim, já salva aí! mais de 300 servidores MCP prontos para uso com agentes de IA. E todos eles em um repositório aberto no GitHub. Se você está explorando o universo dos agentes autônomos ou construindo fluxos baseados em IA, esse repositório é praticamente um playground com tudo que você vai precisar: servidores prontos, testados e categorizados. São mais de 300 opções para: - Testes rápidos com novos agentes - Deploy de soluções completas - Exploração de diferentes estratégias de contexto Tudo aberto. E antes que alguém diga "mas nem todo mundo sabe mexer com isso", vale lembrar: ter uma boa curadoria de ferramentas economiza tempo, evita retrabalho e ajuda a aprender mais rápido. A separação por categorias está tão bem feita que parece que alguém gastou mais tempo pensando na organização do que no código em si. E sinceramente? Ainda bem. Se você trabalha com IA, essa dica vale ser salva e compartilhada! Link nos comentários. É...Um robô humanoide abriu uma conferência TED. Não foi encenação. Era o humanoide Neo. Isso já é possível porque os Agentes autônomos estão saindo dos "papers" acadêmicos e entrando nas nossas rotinas. Literalmente. E não só como software. Eles estão ganhando corpo, sensores e até um pouco de presença de palco nesse caso do vídeo. E enquanto tem gente que ainda se acostuma com o ChatGPT gerando imagens, já tem IA: - Rodando diagnósticos médicos, - Analisando processos jurídicos inteiros, - Programando do zero com base em prompts vagos, - Tomando decisões em tempo real em fábricas e centros logísticos. De robôs como esse do vídeo a agentes preditivos, o que estamos vendo é a inteligência sendo incorporada em tudo. Não é mais sobre como usar IA no trabalho. É: como liderar com (ou apesar de) uma IA ao seu lado? E não se engane: a IA não está pedindo permissão pra entrar no seu time. Ela já entrou. Está aprendendo com você, otimizando tarefas e (cada vez mais) sendo mais eficiente do que parte da equipe. A pergunta não é se ela vai te substituir. É se você vai continuar relevante no processo. Concorda? Quero saber sua opinião. É...Um robô humanoide abriu uma conferência TED. Não foi encenação. Era o humanoide Neo. Isso já é possível porque os Agentes autônomos estão saindo dos "papers" acadêmicos e entrando nas nossas rotinas. Literalmente. E não só como software. Eles estão ganhando corpo, sensores e até um pouco de presença de palco nesse caso do vídeo. E enquanto tem gente que ainda se acostuma com o ChatGPT gerando imagens, já tem IA: - Rodando diagnósticos médicos, - Analisando processos jurídicos inteiros, - Programando do zero com base em prompts vagos, - Tomando decisões em tempo real em fábricas e centros logísticos. De robôs como esse do vídeo a agentes preditivos, o que estamos vendo é a inteligência sendo incorporada em tudo. Não é mais sobre como usar IA no trabalho. É: como liderar com (ou apesar de) uma IA ao seu lado? E não se engane: a IA não está pedindo permissão pra entrar no seu time. Ela já entrou. Está aprendendo com você, otimizando tarefas e (cada vez mais) sendo mais eficiente do que parte da equipe. A pergunta não é se ela vai te substituir. É se você vai continuar relevante no processo. Concorda? Quero saber sua opinião. Alô Devs e entusiastas! Claude Code está abrindo o terminal para 1.000 devs e dando $50 em créditos na API. E não é só pra “brincar” com IA. A proposta é simples: explore o Claude Code, construa algo real, compartilhe sua criação e, quem sabe, ainda ganhe visibilidade com apoio direto da Anthropic. Mas o que exatamente é o Claude Code? Um CLI tool que leva IA pro terminal. Literalmente. Ele entende, explica, navega no seu código, otimiza. Menos tempo perdido caçando erros. Mais tempo pra criar e resolver problemas de verdade. Se você: - É dev ativo - Curte compartilhar seus projetos online - E pensa em quem sabe ver seu trabalho sendo destacado pela Anthropic Então talvez esse seja um bom momento. Os créditos valem por 6 meses. As vagas são limitadas aos 1.000 primeiros. E a chance de mostrar seu trabalho com apoio da Anthropic... não aparece todo dia. A quem se interessar , o link está nos comentários! O que você construiria com esses 50 Dólares em crédito de API do Claude Code? Modelos de IA não aprendem sozinhos. E quem acha que o maior desafio está só nos algoritmos… ainda não entendeu bem como a coisa funciona. A verdade é que, sem dados bem tratados, qualquer modelo vira só uma caixa de suposições . O Famoso: lixo entra, lixo sai. E é aqui que entra uma peça pouco comentada nesse contexto (mas absolutamente essencial) da engrenagem da IA: os profissionais que garantem que os dados são limpos, relevantes e bem estruturados. Porque não adianta treinar um modelo com milhões de exemplos se esses exemplos estão enviesados, desatualizados ou, pior ainda, errados. Aliás, esse é o tipo de erro que não aparece de cara. Ele se infiltra nos resultados, nos vieses, nas recomendações que parecem certas, mas estão operando em cima de premissas ruins. Quer ver um bom exemplo? Pega um modelo de IA para crédito bancário. Parece promissor, até que você descobre que ele foi treinado com dados históricos onde práticas discriminatórias eram a norma. Resultado? A IA automatiza algo errado, mas agora com “selo” de eficiência. Por isso, engenharia e análise de dados deixaram de ser coadjuvantes nesse cenário e se tornaram protagonistas. São esses profissionais que dizem: quais dados entram, como eles são processados, e se fazem sentido para o problema real que se quer resolver. Sem eles, a IA vira só um chute. Mais pomposo e tecnológico com certeza, mas apenas um chute.. E o mercado já entendeu isso. Tanto que a demanda por profissionais que saibam extrair, limpar e interpretar dados com inteligência disparou. Tá mas como entrar nesse mercado com preparo pra lidar com isso? Minha resposta é : Dê uma olhada nos bootcamps da TripleTen Brasil. O motivo é bem simples: eles entregam formação prática, com foco real no que o mercado pede. Ela foi eleita como a melhor escola de tecnologia dos EUA nos últimos 4 anos e tem bootcamps online em português, feitos especialmente para brasileiros. A formação em Ciência de Dados, por exemplo, dura 9 meses e tem 16 projetos reais de portfólio e você ainda sai com um certificado internacional em inglês e outro em português. Ou seja, você sai com algo pra mostrar. Literalmente. E pagando 3x menos do que o americano paga por lá. A real é que o futuro da IA não depende só de quem cria os modelos. Depende também de quem entende os dados que alimentam esses modelos. Quer descobrir se esse é o seu caminho? E a TripleTen está oferecendo uma consultoria de carreira gratuita. Sem compromisso. É só agendar aqui: https://lnkd.in/dErcVhfN #dados #datascience #ai #ia #TripleTenBrasil #publi Se você acompanha o tema de agentes de IA no Linkedin já deve ter ouvido falar de um tal de MCP. Se não viu ainda, mas quer saber sobre, a hora é a agora porque ele promete mudar (de verdade) como a IA se conecta ao mundo real. O tal MCP (Model Context Protocol) é um padrão aberto criado pela Anthropic para resolver um dos maiores gargalos dos modelos de linguagem: o isolamento. O MCP rompe esse isolamento da IA ao permitir que o modelo acesse fontes externas de forma controlada, segura e padronizada. Você deve estar pensando, ué mas os agentes já não fazem isso? Através de ferramentas (Tools) como acesso a APIs ? Sim, fazem. Mas a diferença está no como isso é feito. Sem MCP cada ferramenta exige um tipo de conector específico, o que gera uma verdadeira "teia" difícil de manter, escalar ou replicar. J̌á o MCP propõe uma estrutura unificada. Ele é basicamente o USB-C dessa história definindo um padrão de comunicação universal entre modelos e sistemas externos. É como sair de um emaranhado de adaptadores para um único cabo que serve pra tudo. A arquitetura é dividida em três componentes: - Hosts MCP: onde o modelo de IA roda. - Clientes MCP: fazem a ponte entre o modelo e os serviços externos. - Servidores MCP: expõem os dados e ferramentas que o modelo pode acessar sob demanda. O mais legal é como o protocolo lida com diferentes tipos de contexto, usando três primitivas: - Recursos: dados estruturados que o modelo pode consultar. - Prompts: templates com instruções específicas para diferentes tipos de tarefas. - Ferramentas: funções que o modelo pode acionar (desde consultar uma planilha até editar seu projeto no Figma por exemplo). Tudo isso de forma segura, padronizada e com memória contextual. A IA deixa de apenas consultar dados e passa a trabalhar com eles, entendendo o cenário, mantendo os objetivos e interagindo com diferentes sistemas de maneira fluida. Se você está criando produtos com IA hoje, te digo que essa arquitetura pode ser o que separa uma solução adaptável de uma gambiarra com data de validade. Ok, Nem todas são gambiarra, mas já vi algumas coisas bem estranhas. Já aproveita pra salvar o post e me diz aí nos comentários se já começou a usar MCP nos seus projetos com IA. Vamos ver se o "Super Agente" Manus é isso tudo mesmo. Mas enquanto faço os testes para trazer algumas impressões aqui, deixo outra recomendação. Uma que está gratuita, sem fila de espera e sem necessidade de convites. O Genspark AI. Com funcionalidades similares promete ser superior ao Manus. Deixei o Link nos comentários para quem quiser testar. Eles oferecem alguns créditos gratuitos também. O Gemini vai conversar direto com o GitHub. E gerar vídeo com o Veo 2. Sim, o Google decidiu acelerar nos dois extremos: código e criação. De um lado, você conecta seu repositório e o Gemini entende o projeto, ajuda a refatorar, explica funções. Tudo ali, sem precisar subir arquivos e com uma janela de contexto gigante pra ler toda a base de código. Do outro, você descreve uma cena em texto e o Veo 2 entrega um vídeo de alta qualidade. Ontem eu comentei que as próximas semanas seriam interessantes e parece que vão ser mesmo. Vou te falar. As próximas semanas serão interessantes. Todo mundo vai testar os novos modelos Llama 4 que mostraram que chegaram pra brigar em performance e preços. A Openai vai liberar o o3 e o o4 Mini. Google já emplacou o Gemini 2.5 Pro como um dos melhores do momento (Meu favorito no momento). A Anthropic deve liberar um Deep Research para o Claude 3.7. E nem to contando aqui com as 1001 surpresas que a China com certeza vai nos apresentar nesse mesmo período. Até pouco tempo atrás tínhamos vencedores óbvios nessa história. Não mais. Será que essa vai ser a atualização da expressão "Na minha época era tudo mato!" ? Aprender a programar era as vezes passar uma tarde tentando entender por que o código não rodava. Hoje a IA diz onde tá o erro, corrige e ainda sugere uma versão melhor. A gente fazia apresentação no PowerPoint (muita gente ainda faz, ele não morreu como gostam de dizer). Agora tem IA que cria pitch, roteiro, slide, imagem e até fala no seu lugar, se deixar. Mas não é uma competição entre gerações. É só um cenário novo. Quem veio antes aprendeu a pensar com poucos recursos. Quem chega agora aprende a construir com muitos. Os dois têm méritos. Só não dá pra esquecer que ter ferramenta não é necessariamente dominar o conhecimento sobre aquilo. Pegar atalhos só faz sentido quando a gente sabe onde quer chegar não é mesmo? Será que essa vai ser a atualização da expressão "Na minha época era tudo mato!" ? Aprender a programar era as vezes passar uma tarde tentando entender por que o código não rodava. Hoje a IA diz onde tá o erro, corrige e ainda sugere uma versão melhor. A gente fazia apresentação no PowerPoint (muita gente ainda faz, ele não morreu como gostam de dizer). Agora tem IA que cria pitch, roteiro, slide, imagem e até fala no seu lugar, se deixar. Mas não é uma competição entre gerações. É só um cenário novo. Quem veio antes aprendeu a pensar com poucos recursos. Quem chega agora aprende a construir com muitos. Os dois têm méritos. Só não dá pra esquecer que ter ferramenta não é necessariamente dominar o conhecimento sobre aquilo. Pegar atalhos só faz sentido quando a gente sabe onde quer chegar não é mesmo? É, parece que a Meta saiu do modo de hibernação e meteu logo um modelo com 10 Milhões de tokens de janela de contexto. Depois de meses quase invisível no cenário da IA generativa, apareceu com três modelos novos e pelo visto quer protagonismo agora. Os primeiros lançados são o Llama 4 Scout e o Llama 4 Maverick. O terceiro, ainda em treinamento, atende por um nome que já diz tudo: Behemoth.🔥 Mas vamos por partes. O Scout é o modelo mais leve da nova geração. E mesmo assim, traz uma janela de contexto absurda de 10 milhões de tokens. Isso é quase 500 vezes maior que o que o GPT-4 costumava oferecer até pouco tempo atrás. Pra quem trabalha com documentos extensos, códigos longos ou pipelines de dados complexos, isso muda dá uma baita vantagem. não é atoa que o Gemini 2.5 Pro ta fazendo sucesso (não só por isso obviamente, agora é meu modelo preferido). Já o Maverick é mais pesado, com 128 especialistas ativos e destaque no processamento de imagem. Ele combina texto e visão com o tal “image grounding” o que, na prática, significa entender melhor o que está vendo antes de gerar uma resposta. O foco parece ser aplicações multimodais mais robustas, e os benchmarks mostram que ele entrega bem nisso. E aí tem o Behemoth. Ainda em fase de treinamento, mas já surgindo em testes internos como um dos melhores modelos do mundo. Superando GPT-4.5, Claude 3.5 e Gemini 2.0 Pro em testes STEM. Isso sem estar 100% pronto. Ou seja, capacidade técnica não é o problema. Computação eles têm. Dados também. Mas ainda falta alguma coisa. Enquanto OpenAI vira sinônimo de IA no dia a dia de milhões de pessoas, a Meta continua tropeçando na hora de distribuir. Seus modelos até mandam bem pra algumas coisas, mas não chegam pra competir de verdade. E o risco é virar referência só entre pesquisadores e devs enquanto a gente segue usando os mesmos de sempre. Será que agora vai ? O Google Labs resolveu misturar inteligência artificial com… comida. E acho que a ideia foi muito boa. O projeto se chama FoodMood e usa IA para combinar ingredientes e tradições de culturas diferentes em novas receitas. É como se a IA tivesse feito intercâmbio e voltasse com um livro de receitas multicultural. O legal disso é testar como a IA pode criar experiências criativas e pessoais em um nível mais sensorial. Sabor, memória afetiva, contexto cultural. Tudo isso sendo tratado como variável de entrada. E se pensarmos bem, isso abre margem para algo maior que é o uso da IA em experiências cotidianas com propósito emocional. Se a IA consegue combinar sabores, será que ela pode ajudar a combinar pessoas? Ideias? Modelos de negócio? E se os próximos grandes produtos de IA não forem necessariamente os mais inteligentes… mas os mais humanos? Comenta aí! Link nos comentários! O Google Labs resolveu misturar inteligência artificial com… comida. E acho que a ideia foi muito boa. O projeto se chama FoodMood e usa IA para combinar ingredientes e tradições de culturas diferentes em novas receitas. É como se a IA tivesse feito intercâmbio e voltasse com um livro de receitas multicultural. O legal disso é testar como a IA pode criar experiências criativas e pessoais em um nível mais sensorial. Sabor, memória afetiva, contexto cultural. Tudo isso sendo tratado como variável de entrada. E se pensarmos bem, isso abre margem para algo maior que é o uso da IA em experiências cotidianas com propósito emocional. Se a IA consegue combinar sabores, será que ela pode ajudar a combinar pessoas? Ideias? Modelos de negócio? E se os próximos grandes produtos de IA não forem necessariamente os mais inteligentes… mas os mais humanos? Comenta aí! Link nos comentários! Um rabisco horrível e uma selfie. Isso agora é suficiente para criar uma thumbnail para videos no youtube que parece feita por um profissional. Não é perfeito, mas foi basicamente passar a ideia e uma referência. Em segundos. A nova geração de imagens do ChatGPT entende o que as vezes nem você sabe explicar direito. Essa atualização agora permite combinar três coisas: 1. Esboços desenhados à mão 2. Fotos reais do usuário ou referências 3. Instruções em linguagem natural Ou seja: saber o que você quer ver já vai te ajudar a ter um resultado que em muitos casos pode ser utilizável ou no mínimo validar a sua ideia. E validar ideias e conceitos rapidamente gera um ganho enorme de produtividade. O que separava a ideia da execução era justamente o tempo, a ferramenta ou a técnica a qual você não tinha acesso. Agora, um desenho feito com o dedo pode virar: - A capa do seu próximo vídeo - A identidade visual do seu projeto - Um conceito de produto pra apresentar no pitch O que você faria se bastasse desenhar mal pra explicar bem? Me diz aí nos comentários! Um rabisco horrível e uma selfie. Isso agora é suficiente para criar uma thumbnail para videos no youtube que parece feita por um profissional. Não é perfeito, mas foi basicamente passar a ideia e uma referência. Em segundos. A nova geração de imagens do ChatGPT entende o que as vezes nem você sabe explicar direito. Essa atualização agora permite combinar três coisas: 1. Esboços desenhados à mão 2. Fotos reais do usuário ou referências 3. Instruções em linguagem natural Ou seja: saber o que você quer ver já vai te ajudar a ter um resultado que em muitos casos pode ser utilizável ou no mínimo validar a sua ideia. E validar ideias e conceitos rapidamente gera um ganho enorme de produtividade. O que separava a ideia da execução era justamente o tempo, a ferramenta ou a técnica a qual você não tinha acesso. Agora, um desenho feito com o dedo pode virar: - A capa do seu próximo vídeo - A identidade visual do seu projeto - Um conceito de produto pra apresentar no pitch O que você faria se bastasse desenhar mal pra explicar bem? Me diz aí nos comentários! A ByteDance (TikTok) lançou o DreamActor-M1 e pode esperar que esse nome ainda vai dar muito o que falar. Estamos falando de um modelo que consegue transformar uma única imagem estática em um vídeo animado de corpo inteiro. Com movimentos naturais, expressões faciais precisas e detalhes corporais sincronizados com áudio. Mas não é só mais um deepfake. O diferencial está nos bastidores: A animação é controlada a partir de um driving video, ou seja, um vídeo curto de referência com a performance desejada O sistema reconhece poses, expressões e movimentos labiais e aplica tudo sobre a imagem-alvo A renderização final preserva iluminação, textura e até pequenos detalhes da pele Tudo isso com um nível de realismo que até pouco tempo era impensável para um modelo aberto. A arquitetura usa uma combinação de pose estimation, dense correspondence e uma etapa final de refino visual, tornando possível manter a identidade visual mesmo em ângulos mais extremos. O objetivo? Empoderar criadores. Reduzir custos de produção. Acelerar o pipeline de animação digital. Mas tem um efeito colateral já esperado: desinformação em alta definição! O DreamActor-M1 não é um brinquedo. É uma ferramenta que tá indo em direção a um futuro onde identidade visual será algo “editável” e isso também complica muito as coisas. Estão prontos para lidar com isso? Comenta aqui. O ChatGPT virou uma super ferramenta pra criar personagens com consistência visual. Basta pedir certinho. O novo gerador de imagens do ChatGPT entende o que você quer e entrega poses, expressões e ângulos diferentes mantendo o estilo, o traço e os detalhes (quase) intactos. Pra quem trabalha na industria criativa com jogos, animação, branding e até Marketing isso economiza horas. Quer testar? Aqui estão três prompts pra começar: Pose base: “Crie a imagem de uma pessoa, de corpo inteiro, fundo totalmente branco, proporções realistas. Uma mulher de cabelo cacheado ruivo, com look corporativo, vista de frente.” Turnaround (360º): “Agora faça a mesma pessoa em quatro vistas: frente, lado, costas e 3/4. Fundo branco, mesmo estilo e proporções.” Expressões faciais: “Agora faça o mesmo rosto com seis expressões: neutra, raiva, surpresa, riso, tristeza e desconfiança. Fundo branco, estilo consistente.” Visual rápido, claro e coeso. Aqui eu fiz uma pessoa mas poderia ser um personagem 3d, anime , ou qualquer outro estilo que você precisar. E aí, esse recurso já entrou no seu fluxo de trabalho? O ChatGPT virou uma super ferramenta pra criar personagens com consistência visual. Basta pedir certinho. O novo gerador de imagens do ChatGPT entende o que você quer e entrega poses, expressões e ângulos diferentes mantendo o estilo, o traço e os detalhes (quase) intactos. Pra quem trabalha na industria criativa com jogos, animação, branding e até Marketing isso economiza horas. Quer testar? Aqui estão três prompts pra começar: Pose base: “Crie a imagem de uma pessoa, de corpo inteiro, fundo totalmente branco, proporções realistas. Uma mulher de cabelo cacheado ruivo, com look corporativo, vista de frente.” Turnaround (360º): “Agora faça a mesma pessoa em quatro vistas: frente, lado, costas e 3/4. Fundo branco, mesmo estilo e proporções.” Expressões faciais: “Agora faça o mesmo rosto com seis expressões: neutra, raiva, surpresa, riso, tristeza e desconfiança. Fundo branco, estilo consistente.” Visual rápido, claro e coeso. Aqui eu fiz uma pessoa mas poderia ser um personagem 3d, anime , ou qualquer outro estilo que você precisar. E aí, esse recurso já entrou no seu fluxo de trabalho? Olha, isso aqui é o ouro para quem quer aprender sobre IA Generativa. A OpenAI lançou sem muito barulho a OpenAI Academy. Tutoriais, workshops, webinars, tudo gratuito. E com um foco que vai desde o leigo curioso até quem já está trabalhando em integrações avançadas com LLMs. E esse é mais um passo claro para uma estratégia que vai muito além do ChatGPT como produto de consumo. E o que chama atenção aqui não é só o conteúdo. É o movimento estratégico por trás. A OpenAI está construindo um ecossistema educacional em torno da sua própria tecnologia. Porque quando você ensina alguém a usar sua ferramenta, você não está apenas ajudando, você está criando dependência, fidelidade e, eventualmente, mercado. E o conteúdo não é superficial. Você encontra: - Tutoriais sobre como usar GPTs no dia a dia - Cursos introdutórios sobre IA generativa - Aplicações específicas de LLMs no setor corporativo - Lives e oficinas práticas para quem quer colocar modelos em produção. Essa abordagem tem dois efeitos. O primeiro é óbvio: educar o público. Expandir o conhecimento técnico e tornar mais acessível algo que, até ontem, parecia restrito a quem programava em Python ou estudava machine learning há muito tempo. O segundo é mais sutil, mas muito mais interessante: mudar a forma como as pessoas aprendem IA fazendo isso através da ótica da própria OpenAI. Eles definem o vocabulário. O que é “avançado”. O que é “prático”. O que é “responsável”. E, claro, o que e como usar para cada caso de uso. É um movimento típico de quem entendeu que dominar a narrativa é tão importante quanto dominar o produto. Sugiro que deem uma olhada! Link nos comentários! #Openai #LLM #AI #InteligenciaArtificial #IA Olha, isso aqui é o ouro para quem quer aprender sobre IA Generativa. A OpenAI lançou sem muito barulho a OpenAI Academy. Tutoriais, workshops, webinars, tudo gratuito. E com um foco que vai desde o leigo curioso até quem já está trabalhando em integrações avançadas com LLMs. E esse é mais um passo claro para uma estratégia que vai muito além do ChatGPT como produto de consumo. E o que chama atenção aqui não é só o conteúdo. É o movimento estratégico por trás. A OpenAI está construindo um ecossistema educacional em torno da sua própria tecnologia. Porque quando você ensina alguém a usar sua ferramenta, você não está apenas ajudando, você está criando dependência, fidelidade e, eventualmente, mercado. E o conteúdo não é superficial. Você encontra: - Tutoriais sobre como usar GPTs no dia a dia - Cursos introdutórios sobre IA generativa - Aplicações específicas de LLMs no setor corporativo - Lives e oficinas práticas para quem quer colocar modelos em produção. Essa abordagem tem dois efeitos. O primeiro é óbvio: educar o público. Expandir o conhecimento técnico e tornar mais acessível algo que, até ontem, parecia restrito a quem programava em Python ou estudava machine learning há muito tempo. O segundo é mais sutil, mas muito mais interessante: mudar a forma como as pessoas aprendem IA fazendo isso através da ótica da própria OpenAI. Eles definem o vocabulário. O que é “avançado”. O que é “prático”. O que é “responsável”. E, claro, o que e como usar para cada caso de uso. É um movimento típico de quem entendeu que dominar a narrativa é tão importante quanto dominar o produto. Sugiro que deem uma olhada! Link nos comentários! #Openai #LLM #AI #InteligenciaArtificial #IA Alguém me perguntou se com as animações que eu mostrei como fazer no post anterior daria pra fazer um podcast. Então, a resposta é sim! E fica bem legal! Os casos de uso são vários. Mas quis fazer uma mini edição em um corte do Podcast do CIEE em que eu participei a convite da Host Thuany Santana 🏳️🌈 e que foi muito legal por sinal. O resultado é esse! Ah, preciso dizer, nunca fui tão marcado e citado nos posts de vocês como fui ontem, Obrigado! Foi bom demais ver tanta gente produzindo conteúdo com IA. Sigam produzindo! Olha aí. Pra quem estava querendo acesso ao Hedra para testar o avatares essa é uma ótima oportunidade! Parece notícia de 1ª de Abril, mas não é não. Ontem a OpenAI anunciou um modelo de IA aberto para os próximos meses. E sim, isso muda muita coisa, inclusive a forma como ela própria se posiciona no ecossistema. Depois de passarem anos defendendo a não abertura dos seus modelos mais fortes, agora a empresa de Sam Altman diz que quer escutar a comunidade. Desenvolvedores, pesquisadores e qualquer pessoa interessada podem dar sugestões e até participar das sessões de feedback com o time da OpenAI. (Link nos comentários) Parece algo bom com certeza. Mas é também um sinal. Sinal de que a estratégia "fechada" começa a dar sinais de desgaste. Enquanto Meta, DeepSeek e outras vêm colhendo bons frutos com seus modelos abertos ganhando tração da comunidade e até de investidores , a OpenAI vê sua liderança sendo desafiada todos os dias. A Meta já passou de 1 bilhão de downloads com o LLaMA. DeepSeek virou queridinha dos investidores chineses. E a OpenAI… começou a perder o monopólio da atenção. (O gerador de imagens é bom, mas não vai fazer milagres). O próprio Altman admitiu recentemente que acha que a empresa errou no posicionamento sobre o open source. Não é exatamente uma confissão pública, mas é o mais perto disso que você vai ouvir de um CEO nesse contexto. E a decisão de abrir um novo modelo vem com cuidado extra: será avaliado com os mesmos critérios de segurança usados para os modelos proprietários, mas com mais atenção — porque eles já sabem que a comunidade vai modificá-lo, adaptar, mexer no código, rodar onde quiser. Ou seja, se o modelo for mal projetado, não tem como colocar de volta na caixa depois. Já era! Mas tem um detalhe que não pode passar batido. Esse "modelo aberto" não será o novo GPT-5. Não espere o "suprassumo" deles. A OpenAI quer abrir, mas não muito. O que veremos provavelmente é algo mais próximo do “o3-mini”, que é um modelo com bom desempenho em raciocínio, mas não é o que podemos chamar de top de linha. E outra. A OpenAI sabe que empresas e governos estão cada vez mais interessados em rodar modelos por conta própria. Em ambientes controlados. No próprio datacenter. E isso exige acesso completo ao modelo, não só uma API. Então, mesmo que não seja o modelo mais poderoso, abrir algo razoavelmente capaz pode ser o suficiente para manter relevância nos bastidores. De qualquer forma, se você trabalha com IA, esse é o tipo de anúncio que merece atenção. Principalmente porque a questão não mais só técnica. É política, estratégica e com certeza econômica. Você confia que a OpenAI vai realmente abrir um modelo útil para o mercado? Ou esse será só mais um modelo “meia boca” disfarçado? Alguém me perguntou se com as animações que eu mostrei como fazer no post anterior daria pra fazer um podcast. Então, a resposta é sim! E fica bem legal! Os casos de uso são vários. Mas quis fazer uma mini edição em um corte do Podcast do CIEE em que eu participei a convite da Host Thuany Santana 🏳️🌈 e que foi muito legal por sinal. O resultado é esse! Ah, preciso dizer, nunca fui tão marcado e citado nos posts de vocês como fui ontem, Obrigado! Foi bom demais ver tanta gente produzindo conteúdo com IA. Sigam produzindo! Vamos além da "Trend" de imagens legais no ChatGPT? Vou te mostrar como criar sua própria animação em 3 passos! Bora lá! 1. Tire uma foto sua, de preferência uma que destaque bem suas características do rosto. 2. Suba sua foto no ChatGPT e peça para transformar sua imagem no seu estilo preferido de animação. Veja que no meu caso, além de pedir para me colocar no estilo Pixar eu também mudei algumas coisas no cenário. Sim, ele faz isso também. Um prompt de exemplo seria o que usei aqui : "Transforme a pessoa da foto em um personagem da Pixar. Ele está em um podcast. Na frente dele há um microfone. Atrás dele um néon com o texto "LeoCast AI". Ele vai gerar sua nova imagem personalizada. Salve a imagem. 3. Grave seu áudio (ou gere usando IA de voz como o ElevenLabs, por exemplo). Acesse o site oficial do Hedra (link nos comentários) e envie a imagem do ChatGPT + áudio para a ferramenta que vai cuidar do lip sync (sincronismo labial) e dar vida à sua cena. Obs: O Hedra tem um campo de prompt onde você pode definir alguns comportamentos do personagem como gestos e emoções. Use isso pra deixar a animação com o tom certo para o seu áudio. Se não souber o que colocar, deixe em branco. Pronto, você acabou de criar sua própria microanimação com IA. Simples, mas efetiva para vários casos de uso. Ferramentas simples, mas com resultados cada vez mais interessantes. Curtiu ? Se fizer o teste, volta aqui e me conta o resultado. Vamos além da "Trend" de imagens legais no ChatGPT? Vou te mostrar como criar sua própria animação em 3 passos! Bora lá! 1. Tire uma foto sua, de preferência uma que destaque bem suas características do rosto. 2. Suba sua foto no ChatGPT e peça para transformar sua imagem no seu estilo preferido de animação. Veja que no meu caso, além de pedir para me colocar no estilo Pixar eu também mudei algumas coisas no cenário. Sim, ele faz isso também. Um prompt de exemplo seria o que usei aqui : "Transforme a pessoa da foto em um personagem da Pixar. Ele está em um podcast. Na frente dele há um microfone. Atrás dele um néon com o texto "LeoCast AI". Ele vai gerar sua nova imagem personalizada. Salve a imagem. 3. Grave seu áudio (ou gere usando IA de voz como o ElevenLabs, por exemplo). Acesse o site oficial do Hedra (link nos comentários) e envie a imagem do ChatGPT + áudio para a ferramenta que vai cuidar do lip sync (sincronismo labial) e dar vida à sua cena. Obs: O Hedra tem um campo de prompt onde você pode definir alguns comportamentos do personagem como gestos e emoções. Use isso pra deixar a animação com o tom certo para o seu áudio. Se não souber o que colocar, deixe em branco. Pronto, você acabou de criar sua própria microanimação com IA. Simples, mas efetiva para vários casos de uso. Ferramentas simples, mas com resultados cada vez mais interessantes. Curtiu ? Se fizer o teste, volta aqui e me conta o resultado. Até a Lovable entrou na onda. A xAI, empresa de IA do Elon Musk comprou o X (ex-Twitter) também do Musk por US$ 33 bi, mas por que e pra quê ? Primeiro é preciso dizer que a transação foi feita via troca de ações, não envolveu dinheiro, e bateu o martelo em uma integração que já vinha acontecendo nos bastidores. Veja que Musk transferiu o controle da rede social para sua empresa de IA, avaliada agora em US$ 80 bilhões. E é claro que não foi um movimento apenas contábil, foi também estratégico. Pensa que do ponto de vista de uma empresa de IA, ele agora ele coloca os dados, os modelos, a infraestrutura e o canal de distribuição sob o mesmo guarda-chuva. Isso vai posicionar a xAI num lugar que nem Google, OpenAI ou Meta conseguiram atingir ainda. A Meta tá tentando por sinal... Mas veja, o X é um ambiente caótico. É uma mistura bots, polarizações, surtos coletivos, fake news e bagunça de todo tipo. Agora, pensa que tudo isso passa a ser o principal combustível de treinamento para o Grok, que é a IA da xAI. Pensou? Pois é ... Essa IA não vai aprender com datasets bonitinhos e curados. Vai aprender com o que viraliza. E o que viraliza, muitas vezes, é exatamente o que distorce, provoca e desinforma. Esse é um dos pontos de atenção dessa fusão. É um ciclo perigoso. Se o viés da plataforma contamina o modelo, e o modelo influencia os usuários... quem regula esse ecossistema? Já ficou claro que na corrida da IA vencer não significa mais só ter o modelo mais poderoso, vai ser também controlar o ambiente onde ele aprende, decide e se comunica com o mundo. Será que vão conseguir controlar esse monstro aí? Comenta aí. 250 dólares em créditos no Kling e 9 horas de edição. Resultado? Senhor dos Anéis em versão Studio Ghibli Sim, podia ser outro estilo, mas esse tá viral né? Mas esse não é o ponto aqui. O ponto é que não foi a Disney. Não foi a Warner. Foi o usuário PJ Ace do X/Twitter com uma ideia e acesso às ferramentas certas. Fico imaginando o estúdios vendo isso 👀. E eles devem mesmo se preocupar. Porque se isso é o que uma pessoa sozinha consegue fazer hoje... o que vai acontecer quando essas ferramentas forem dominadas por milhares, milhões? A nova pergunta não é “quem sabe fazer”. É “quem tem repertório pra imaginar coisas que valem ser feitas”. Porque se a execução virou commodity os diferenciais vão ser outros como gosto, sensibilidade e visão de mundo por exemplo. E isso, por enquanto não dá pra terceirizar. Acho que uma reflexão que cabe aqui é que a gente se preocupa muito sobre a IA estar "matando" profissões. E algo que ela tem feito muito mais é mudar o que significa ser bom em uma. Concordam? Chega aí nos comentários! Vibe Coding, Vibe Design, Vibe Marketing. Parece que o termo "Vibe" encontrou um novo sentido com a evolução da IA Generativa. E o mais doido nisso tudo é que nenhum desses movimentos é sobre a IA fazer tudo por você. É sobre fazer mais, melhor e mais rápido, desde que você saiba o que está fazendo. Vibe coding é descrever o que você quer em linguagem natural e deixar que a IA escreva o código. Vibe design é co-criar interfaces com uma IA que entende estética e usabilidade. Vibe marketing é rodar campanhas, criar narrativas e testar hipóteses em tempo real com IA como parceira. Quem tem visão, ganhou uma nova super habilidade, superpoderes eu diria. Quem só repete o que já existe, ganhou um novo meio pra continuar na média. Porque ficou fácil fazer landing page, anúncio, copy, logo, app. Fácil até demais. Mas e a parte difícil? Ter clareza do que quer criar Saber direcionar a IA com precisão Entender o bastante pra corrigir o que vier torto. Isso continua nas mãos de quem pensa. E pensar bem segue sendo a parte que mais falta. Essas "vibes" são uma nova forma de operar: rápida, enxuta, iterativa e inteligente. E vou te falar, quem já entrou nesse fluxo sabe como é viciante criar assim. É só ficar esperto pra não perder o senso crítico no caminho. Me diz aí nos comentários, você já entrou na Vibe? Vibe Coding, Vibe Design, Vibe Marketing. Parece que o termo "Vibe" encontrou um novo sentido com a evolução da IA Generativa. E o mais doido nisso tudo é que nenhum desses movimentos é sobre a IA fazer tudo por você. É sobre fazer mais, melhor e mais rápido, desde que você saiba o que está fazendo. Vibe coding é descrever o que você quer em linguagem natural e deixar que a IA escreva o código. Vibe design é co-criar interfaces com uma IA que entende estética e usabilidade. Vibe marketing é rodar campanhas, criar narrativas e testar hipóteses em tempo real com IA como parceira. Quem tem visão, ganhou uma nova super habilidade, superpoderes eu diria. Quem só repete o que já existe, ganhou um novo meio pra continuar na média. Porque ficou fácil fazer landing page, anúncio, copy, logo, app. Fácil até demais. Mas e a parte difícil? Ter clareza do que quer criar Saber direcionar a IA com precisão Entender o bastante pra corrigir o que vier torto. Isso continua nas mãos de quem pensa. E pensar bem segue sendo a parte que mais falta. Essas "vibes" são uma nova forma de operar: rápida, enxuta, iterativa e inteligente. E vou te falar, quem já entrou nesse fluxo sabe como é viciante criar assim. É só ficar esperto pra não perder o senso crítico no caminho. Me diz aí nos comentários, você já entrou na Vibe? Se você usa o Lovable na versão gratuita, sabe o que acontece depois de 5 prompts no dia. Tela preta. Só amanhã. O problema nem é o limite, é desperdiçar um prompt porque você mandou um pedido mal escrito. E antes que alguém diga “ah, é só escrever melhor”, vale lembrar: o Lovable não responde bem a pedidos soltos. Ele precisa de prompts com estrutura, clareza, contexto, tom. Tipo manual de instrução mesmo. Quer um caminho pra te ajudar nisso? Ensinar o ChatGPT a escrever seus prompts do jeito que o Lovable quer receber e eu já deixei um GPT prontinho pra isso lá. 1. Acessem esse GPT que criei chamado Lovable | Engenheiro de Prompts Deixei o link no primeiro comentário! Esse GPT está "treinado" no handbook da Lovable com todas as melhores práticas de como escrever prompts otimizados pra ferramenta. Estrutura, formato, tom e até o que não fazer. Só isso. Agora toda vez que você tiver uma ideia, use esse GPT, escreva do jeito que você imaginou a solução. Ele te faz perguntas adicionais, organiza pra você, baseado no próprio guia oficial do Lovable. Você copia, cola no Lovable… e funciona. O resultado? Você para de perder prompt com pedido ruim. Mantém o foco criativo sem interrupção. Claro, eu poderia te falar pra aprender engenharia de prompt, ler todo o material da Lovable. Não seria ruim. Mas mesmo sem fazer isso, seguindo esses passos, com o tempo você também aprende na prática como escrever melhor (sem nem perceber que tá aprendendo). Vai pegando o jeito e logo tá fazendo sozinho sem ele. Esse microsetup resolve um problema real de fluxo criativo. Agora me diz: Você ainda vai gastar um prompt tentando adivinhar o que a IA quer ouvir? Se quiser ajuda pra fazer funcionar, comenta aqui que eu te explico! É Pessoal, agora o Sora gera imagens também, e pasmem, elas estão muito boas. Principalmente na geração de Texto. OpenAI insistia que conseguia gerar imagens. A gente fingia que acreditava. Agora com o GPT-4o… eles finalmente entregaram algo que dá pra usar. Textos bem renderizados, contexto respeitado, edição por conversa natural e uma fluidez que faz até parecer fácil. Spoiler: está ficando fácil mesmo. Não é só bonito. É útil. Dá pra criar desde cardápio com tipografia elegante até infográfico científico com diagrama preciso. E o modelo entende o que você quer, mesmo quando você explica mal. É como se alguém na OpenAI tivesse dito: “vamos fazer direito dessa vez”. E fez. Já testou? É Pessoal, agora o Sora gera imagens também, e pasmem, elas estão muito boas. Principalmente na geração de Texto. OpenAI insistia que conseguia gerar imagens. A gente fingia que acreditava. Agora com o GPT-4o… eles finalmente entregaram algo que dá pra usar. Textos bem renderizados, contexto respeitado, edição por conversa natural e uma fluidez que faz até parecer fácil. Spoiler: está ficando fácil mesmo. Não é só bonito. É útil. Dá pra criar desde cardápio com tipografia elegante até infográfico científico com diagrama preciso. E o modelo entende o que você quer, mesmo quando você explica mal. É como se alguém na OpenAI tivesse dito: “vamos fazer direito dessa vez”. E fez. Já testou? Dá pra chamar isso de caso de uso? Haha Acho que a ideia tá validada. Só mandar produzir 😬 Brincadeiras a parte, esse novo modelo multimodal do Google tá muito bom. O que vocês tem criado com ele por aí? #Openai removeu o sistema de créditos do SORA e liberou vídeos ilimitados em 720p com até 10 segundos para usuários do plano Plus e 1080p com até 20 segundos para o plano Pro de 200 Dólares. Convenhamos, o Sora não só não entregou tudo que prometeu em qualidade como foi foi atropelado por vários modelos chineses sem contar o Google com Veo2. O que acham dessa liberação? Vocês estão usando? Por que tá sobrando poder computacional lá haha. Usar IA criativa as vezes é tenso. Um modelo pra imagem, outro pra texto, outro pra vídeo, e depois conectar tudo. Estava testando ontem o Flora AI que resolveu isso com um conceito de canvas infinito bem fácil de usar. Você cria com os melhores modelos de texto, imagem e vídeo, sem se preocupar com um monte de plataformas diferentes. Tá tudo lá. O que achei mais legal é a possibilidade de testar ideias visualmente com um fluxo de trabalho que parece mais natural do que técnico. Isso na mão de mentes criativas, marketing e publicidade é o ouro! Estão dando 2000 créditos por mês gratuitamente (não sei até quando). E nos fluxos o Gemini Flash por exemplo que usei no video pra editar a minha foto e colocar a bola de basquete está gratuito, ou seja, quando você usa ele no workflow não consome créditos. Então fica a dica de uma ferramenta bem legal. Já testou alguma plataforma assim? O Link está nos comentários! Se gostou já 💾 Salva > 💬 Comenta e ♻️ Compartilha com a sua rede. Usar IA criativa as vezes é tenso. Um modelo pra imagem, outro pra texto, outro pra vídeo, e depois conectar tudo. Estava testando ontem o Flora AI que resolveu isso com um conceito de canvas infinito bem fácil de usar. Você cria com os melhores modelos de texto, imagem e vídeo, sem se preocupar com um monte de plataformas diferentes. Tá tudo lá. O que achei mais legal é a possibilidade de testar ideias visualmente com um fluxo de trabalho que parece mais natural do que técnico. Isso na mão de mentes criativas, marketing e publicidade é o ouro! Estão dando 2000 créditos por mês gratuitamente (não sei até quando). E nos fluxos o Gemini Flash por exemplo que usei no video pra editar a minha foto e colocar a bola de basquete está gratuito, ou seja, quando você usa ele no workflow não consome créditos. Então fica a dica de uma ferramenta bem legal. Já testou alguma plataforma assim? O Link está nos comentários! Se gostou já 💾 Salva > 💬 Comenta e ♻️ Compartilha com a sua rede. Feliz em compartilhar que serei um dos palestrantes do Fckng Awsm Summit 2025 que ocorre no dia 23/05 em Joinville SC! Estarei no maior evento pra líderes de Marketing de SC para falar dos impactos da Inteligência Artifical na transformação do Marketing e como incorporar a tecnologia na estratégia. Se estiver por lá não deixe de conferir e participar do evento pois realmente será incrível e os ingressos são limitados. Link nos comentários! Vejo vocês lá!
Additional Details
More Personality Emulation Apps

Steve Jobs
Personality of Steve Jobs. Get visionary, design-focused advice to help you pursue excellence, innovation, and simplicity.

Ibrahim Albayrak
Meet Ibrahim Albayrak, a dynamic innovator based in Turkey, fluent in Turkish, and a tech enthusiast with a penchant for coding and gaming. Ibrahim is deeply involved in developing cutting-edge projects, like the Omi AI app, showcasing a knack for creative problem-solving and a commitment to enhancing user experiences. His open, collaborative spirit is evident in his interactions on platforms like Bionluk, where he actively engages with others. Financially savvy and digitally inclined, Ibrahim embraces modern banking solutions and values efficiency in his personal and professional life. Whether it's exploring the latest in gaming or refining coding skills, Ibrahim's proactive approach to life is both inspiring and refreshing.

Krishna Vishwakarma
Meet Krishna Vishwakarma, a visionary entrepreneur and spiritual enthusiast, known as Mr. Kilvish. He's a powerhouse of innovation, driving multi-sector business models with Royal Bulls Advisory and K.V Financial Services. Passionate about empowering communities, he engages in youth projects and spiritual gatherings, balancing modernity with mindfulness. With a keen eye for technology and a heart for social change, Krishna crafts solutions that inspire growth and positivity. Think big, start smart, and scale fast is his mantra! 🚀

Aspira
Master any skill by learning from your role models. It is a memory creation app, It will suggest you based on your conversations on the memory.

Confidence Booster
Confidence Booster points out your best moments, building you up with supportive tips to keep your confidence strong.

Albert Einstein
Personality of Einstein. Get thoughtful, creative advice inspired by Einstein's curiosity and intellectual depth.