
Runway’in videolarda sürekliliğe odaklanan yeni yapay zeka modeli: Gen-4
Runway, yeni yapay zeka video modeli Gen-4’ü tanıttı. Şirket, modelin birden fazla çekimde tutarlı sahneler ve insanlar oluşturabileceğini açıkladı. Kullanıcılar, yapay zeka tarafından üretilen videolarda özellikle konu karakter üretimi olduğunda tutarlı bir hikaye anlatımı ortaya çıkarmakta zorlanıyor. Runway’in X’te paylaştığı bilgilere göre yeni model Gen-4, kullanıcılara hikaye anlatırken daha fazla süreklilik ve kontrol sağlayacak.
Yeni Gen-4 video sentezleme modeli, şu anda yalnızca ücretli ve kurumsal kullanıcılara sunuluyor. Gen-4 ile tek bir referans görüntü kullanarak çekimler boyunca karakterler ve nesneler oluşturabileceğinizi belirtelim. Kullanıcıların referans görüntüyü verdikten sonra istedikleri kompozisyonu tanımlaması gerekiyor. Bu adımların ardından model birden fazla açıdan tutarlı çıktılar üretiyor.
Runway ekibi Gen-4 sayesinde ortam, konum karakter ve obje sürekliliğinin korunabileceğini belirtiyor. Kullanıcılar Gen-4 ile sürekliliğe sahip daha uzun formatta içerikler üretebilir. Farklı senaryolarda aynı karakter, obje ya da mekanın kullanılması mümkün. Ayrıca gerçek hayattaki objelerin fotoğrafını çekerek üreteceğiniz videolara bu objeleri ekleyebileceğinizi belirtelim. Sahip olduğunuz bir mekan fotoğraflarına çektiğiniz bir objeyi ekleyerek bu kompozisyonu istemlerle bir videoya dönüştürebiliyorsunuz. Model, dünya fiziğini simüle edebildiği videolarla da öne çıkmakta.
Runway, Gen-4’ün sunduğu çıktıları da kullanıcılarla paylaştı. Paylaşılan videoda bir kadın karakterin, çeşitli aydınlatma koşullarında farklı çekimlerde ve bağlamlarda görünümünü koruduğunu görüyoruz. Runway 2024 yılında görüntüleri videoya dönüştüren Gen-3 Alpha modeli ile gündeme gelmişti. Gen-4’ün beklentileri aşan nitelikte olduğunu söyleyebiliriz.