Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

Notícias Corporativas

Arie Halpern: a tecnologia nas telas, do chroma key ao CGI

A evolução de hardwares e softwares para a indústria cinematográfica mostra como um setor que demanda desenvolvimento de tecnologia acaba impulsionando a criação de equipamentos que, em algum momento, farão parte do cotidiano.

O exemplo de “Toy Story” é cristalino. Em 1995, o volume de dados (1 Terabytes) para processar e entregar a história da turma do xerife Woody para os cinemas impressionou especialistas da área: foram necessárias 800 mil horas para concluir a renderização das imagens. Atualmente, um quarto de século depois, há modelos de computadores de uso doméstico capazes de processar esse volume de dados e de renderizar um filme de 120 minutos em menos de uma hora.

Por outro lado, a produção de conteúdo para o cinema está mais sofisticada e essa indústria demanda profissionais cada vez mais capacitados. E as eventuais falhas desses times não são perdoadas pelo público. A cada novo filme ou série da franquia Marvel, por exemplo, erros de computer-generated imagery (CGI) são apontados pelos fãs.

Mas foi a concorrente DC Comics que ofereceu o último deslize notável. Enquanto gravava as cenas do longa-metragem “Liga da Justiça” (2017), o ator Henry Cavill também trabalhava em outro filme (“Missão Impossível”) em que o personagem usava bigode. A equipe de efeitos especiais do filme da DC Comics acreditou que seria capaz de remover o bigode com pós-produção, em CGI. O resultado foi ruim, e o público passou semanas produzindo memes e brincadeiras com a hashtag #supermanmustache (bigode do Super Homem).

Tecnologias disruptivas são sempre bem-vindas, mas devem estar a serviço de um projeto; há casos em que a simplicidade pode ser mais interessante. Um bom controle de agendas e mais cuidado na caracterização do personagem poderia ter resolvido a questão.

DNA de inovação

Inovação sempre foi um diferencial no universo do audiovisual – afinal, a própria existência do cinema e da televisão devem-se a técnicas e equipamentos que revolucionaram a comunicação. O seriado televisivo “Batman”, estrelado por Adam West, foi uma das primeiras produções em cores a chegar aos lares americanos, nos anos 1960. Duas décadas depois, o seriado “Hulk”, com o ator Bill Bixby interpretando o cientista David Banner e o fisioculturista Lou Ferrigno dando vida ao super-herói verde, foi outro marco dos efeitos especiais, nos anos 1980.

Após esse período, no final da década de 1990, o uso de chroma-key e as técnicas de maquiagem e maquinário cada vez mais sofisticados foram essenciais para sucessos como “Aliens”, de James Cameron. Mas o salto de tecnologia disruptiva ficou evidente com a computação gráfica: os efeitos especiais romperem uma barreira evolutiva. Exemplo disso são os blockbusters “Exterminador do Futuro 2” (1991), “Jurassic Park” (1993), “Toy Story” (1995), “Titanic” (1997) e “Star Wars – Ameaça fantasma” (1999).

A história do desenvolvimento de tecnologias dialoga com inúmeras áreas. Avanços para produção cinematográfica transpuseram a indústria do entretenimento, chegando ao dia a dia, como em tecnologias de processamento de imagem com finalidades clínicas.

Precisão na tecnologia de imagens

A despeito de a Lucasfilm ser vinculada à franquia Star Wars, as produções cinematográficas de Marvel e DC Comics devem agradecimentos ao trabalho ao núcleo de tecnologia da empresa. A primeira câmera controlada por computador foi criada pelo time de George Lucas, o que trouxe o motion-control para as produções.

A maior precisão no controle de captação de imagens foi decisiva para que os resultados da computação gráfica que, após a década de 1990, passou por saltos evolutivos em sequência impulsionada pelo desenvolvimento de computadores com hardware e software cada vez mais capazes e precisos.

A segunda era do computer-generated imagery (CGI) trouxe avanços que eram inimagináveis em 1973, quando filme “Westworld” estreou o uso do processamento digital de imagem. Ou seja, da inovação de pixelizar a imagem para simular o ponto de vista android, as obras futuras com CGI passaram a criar personagens, objetos, cenários e até mesmo filmes inteiros.

Em 1995, “Toy Story” inaugurou o mercado de longas produzidos completamente em CGI. E a franquia é um verdadeiro museu da evolução das máquinas de computação gráfica: basta comparar o resultado de imagem da pelugem do cachorro presente no primeiro filme com o que foi obtido no quarto episódio para um gato, em 2019.