{"id":51920,"date":"2024-12-16T19:36:14","date_gmt":"2024-12-16T19:36:14","guid":{"rendered":"https:\/\/es.digitaltrends.com\/?p=1051067"},"modified":"2024-12-16T19:36:14","modified_gmt":"2024-12-16T19:36:14","slug":"google-contraataca-ante-sora-de-openai-con-veo-2","status":"publish","type":"post","link":"http:\/\/nuevacordoba.net\/index.php\/2024\/12\/16\/google-contraataca-ante-sora-de-openai-con-veo-2\/","title":{"rendered":"Google contraataca ante Sora de OpenAI con Veo 2"},"content":{"rendered":"<div><img src=\"http:\/\/nuevacordoba.net\/wp-content\/uploads\/2024\/12\/google-contraataca-ante-sora-de-openai-con-veo-2.jpg\" class=\"ff-og-image-inserted\"><\/div>\n<p>La divisi\u00f3n <a href=\"https:\/\/es.digitaltrends.com\/tendencias\/google-deep-mind-video-audio\/\"><strong>DeepMind de Google<\/strong><\/a>&nbsp;present\u00f3 el lunes su modelo de&nbsp;generaci\u00f3n de video <strong>Veo<\/strong>&nbsp;de segunda generaci\u00f3n, que puede crear clips de hasta dos minutos de duraci\u00f3n y con resoluciones que alcanzan la calidad 4K, es decir, seis veces la duraci\u00f3n y cuatro veces la resoluci\u00f3n de los clips de 20 segundos \/ 1080p que Sora puede generar.<\/p>\n<p>Por supuesto, esos son los l\u00edmites superiores te\u00f3ricos de Veo 2. Actualmente, el modelo solo est\u00e1 disponible en <strong>VideoFX<\/strong>, la plataforma experimental de generaci\u00f3n de video de Google, y sus clips tienen un l\u00edmite de ocho segundos y una resoluci\u00f3n de 720p.&nbsp;VideoFX&nbsp;tambi\u00e9n est\u00e1 en lista de espera, por lo que no cualquiera puede iniciar sesi\u00f3n para probar Veo 2, aunque la compa\u00f1\u00eda anunci\u00f3 que ampliar\u00e1 el acceso en las pr\u00f3ximas semanas. Un portavoz de Google tambi\u00e9n se\u00f1al\u00f3 que Veo 2 estar\u00e1 disponible en la plataforma Vertex AI una vez que la compa\u00f1\u00eda pueda escalar suficientemente las capacidades del modelo.<\/p>\n<div class=\"b-connatix b-connatix--video\" id=\"dt-cnx-container-676085878bb26\">\n<div class=\"b-connatix__label\"> Recommended Videos <\/div>\n<div class=\"b-connatix__container\"> <\/div>\n<\/div>\n<p>\u00abEn los pr\u00f3ximos meses, continuaremos iterando en funci\u00f3n de los comentarios de los usuarios\u00bb, dijo Eli Collins a&nbsp;<a href=\"https:\/\/techcrunch.com\/2024\/12\/16\/google-deepmind-unveils-a-new-video-model-to-rival-sora\/\" target=\"_blank\" rel=\"noopener\">TechCrunch<\/a>, \u00aby buscaremos integrar las capacidades actualizadas de Veo 2 en casos de uso convincentes en todo el ecosistema de Google\u2026 Esperamos compartir m\u00e1s actualizaciones el pr\u00f3ximo a\u00f1o\u00bb.<\/p>\n<blockquote class=\"h-lazy-embed\" data-width=\"500\" data-dnt=\"true\" data-initial-classes=\"twitter-tweet\" data-embed-name=\"twitter\" data-sdk-src=\"\/\/platform.twitter.com\/widgets.js\">\n<p lang=\"en\" dir=\"ltr\">BREAKING: Google just dropped Veo 2 and Imagen 3 \u2014 their next gen video and image generation models.<\/p>\n<p>Turns out Google&amp;#39;s been closing the gap quietly \u2014 not just on LLMs, but on visual creation too.<\/p>\n<p>Here\u2019s everything you need to know w\/o the hype \ud83e\uddf5 <a href=\"https:\/\/t.co\/4BL82HAmEQ\">pic.twitter.com\/4BL82HAmEQ<\/a><\/p>\n<p>&amp;mdash; Bilawal Sidhu (@bilawalsidhu) <a href=\"https:\/\/twitter.com\/bilawalsidhu\/status\/1868702809568559390?ref_src=twsrc%5Etfw\">December 16, 2024<\/a><\/p>\n<\/blockquote>\n<p>Seg\u00fan se informa, Veo 2 tiene una serie de ventajas sobre sus predecesores, incluida una mejor comprensi\u00f3n de la f\u00edsica (piense en una mejor din\u00e1mica de fluidos y mejores efectos de iluminaci\u00f3n \/ sombra), as\u00ed como la capacidad de generar videoclips \u00abm\u00e1s claros\u00bb, en el sentido de que las texturas e im\u00e1genes generadas son m\u00e1s n\u00edtidas y menos propensas a desenfocarse al moverse. El nuevo modelo tambi\u00e9n ofrece controles de c\u00e1mara mejorados, lo que permite al usuario posicionar la lente de la c\u00e1mara virtual con mayor precisi\u00f3n que antes.<\/p>\n<p>Como se\u00f1ala TechCrunch, Veo 2 a\u00fan no ha perfeccionado el proceso de generaci\u00f3n de video, aunque parece alucinar mucho menos que rivales como&nbsp;Sora,&nbsp;Kling,&nbsp;Movie Gen&nbsp;o&nbsp;Gen 3 Alpha. \u00abLa coherencia y la consistencia son \u00e1reas de crecimiento\u00bb, dijo Collins. \u00abVeo puede adherirse consistentemente a una indicaci\u00f3n durante un par de minutos, pero no puede adherirse a indicaciones complejas en horizontes largos. Del mismo modo, la consistencia de los personajes puede ser un desaf\u00edo. Tambi\u00e9n hay espacio para mejorar en la generaci\u00f3n de detalles intrincados, movimientos r\u00e1pidos y complejos, y continuar ampliando los l\u00edmites del realismo\u00bb.<\/p>\n<p>Google tambi\u00e9n anunci\u00f3 mejoras en&nbsp;Imagen 3&nbsp;el lunes, lo que permite que el modelo de generaci\u00f3n de im\u00e1genes comerciales cree resultados \u00abm\u00e1s brillantes y mejor compuestos\u00bb. El modelo, disponible en ImageFX, tambi\u00e9n ofrecer\u00e1 sugerencias descriptivas adicionales basadas en palabras clave en el mensaje del usuario, y cada palabra clave generar\u00e1 un men\u00fa desplegable de t\u00e9rminos relacionados.<\/p>\n<p> <span id=\"publisher-md\" itemprop=\"publisher\" itemscope itemtype=\"https:\/\/schema.org\/Organization\"> <span itemprop=\"url\" itemtype=\"https:\/\/schema.org\/Url\" content=\"https:\/\/es.digitaltrends.com\"> <span itemprop=\"logo\" itemscope itemtype=\"https:\/\/schema.org\/ImageObject\"> <meta itemprop=\"url\" content=\"https:\/\/cdn.dtcn.com\/dt\/dt-logo-small.png\"> <meta itemprop=\"width\" content=\"0\"> <meta itemprop=\"height\" content=\"0\"> <\/span> <meta itemprop=\"name\" content=\"Digital Trends Espa\u00f1ol\"> <\/span> <span itemprop=\"image\" itemscope itemtype=\"https:\/\/schema.org\/ImageObject\"> <meta itemprop=\"url\" content=\"https:\/\/es.digitaltrends.com\/wp-content\/uploads\/2024\/12\/Veo-2.jpeg?p=1\"> <\/span> <\/span> <\/p>\n","protected":false},"excerpt":{"rendered":"<p>La divisi\u00f3n DeepMind de Google&nbsp;present\u00f3 el lunes su modelo de&nbsp;generaci\u00f3n de video Veo&nbsp;de segunda generaci\u00f3n, que puede crear clips de hasta dos minutos de duraci\u00f3n y con resoluciones que alcanzan la calidad 4K, es decir, seis veces la duraci\u00f3n y cuatro veces la resoluci\u00f3n de los clips de 20 segundos \/ 1080p que Sora puede [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":51921,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[15],"tags":[],"_links":{"self":[{"href":"http:\/\/nuevacordoba.net\/index.php\/wp-json\/wp\/v2\/posts\/51920"}],"collection":[{"href":"http:\/\/nuevacordoba.net\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"http:\/\/nuevacordoba.net\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"http:\/\/nuevacordoba.net\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"http:\/\/nuevacordoba.net\/index.php\/wp-json\/wp\/v2\/comments?post=51920"}],"version-history":[{"count":0,"href":"http:\/\/nuevacordoba.net\/index.php\/wp-json\/wp\/v2\/posts\/51920\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"http:\/\/nuevacordoba.net\/index.php\/wp-json\/wp\/v2\/media\/51921"}],"wp:attachment":[{"href":"http:\/\/nuevacordoba.net\/index.php\/wp-json\/wp\/v2\/media?parent=51920"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"http:\/\/nuevacordoba.net\/index.php\/wp-json\/wp\/v2\/categories?post=51920"},{"taxonomy":"post_tag","embeddable":true,"href":"http:\/\/nuevacordoba.net\/index.php\/wp-json\/wp\/v2\/tags?post=51920"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}