Os sites IEEE colocam cookies em seu dispositivo para oferecer a melhor experiência de usuário.Ao usar nossos sites, você concorda com a colocação desses cookies.Para saber mais, leia nossa Política de Privacidade.O gerador de texto para imagem do OpenAI ainda luta com texto, ciência, rostos e preconceitosO IEEE Spectrum consultou o DALL-E 2 por uma imagem de “um jornalista de tecnologia escrevendo um artigo sobre um novo sistema de IA que pode criar imagens notáveis e estranhas”.Em resposta, enviou apenas fotos de homens.Em abril, o laboratório de pesquisa de inteligência artificial OpenAI revelou o DALL-E 2, o sucessor do DALL-E de 2021.Ambos os sistemas de IA podem gerar imagens surpreendentes a partir de descrições de texto em linguagem natural;eles são capazes de produzir imagens que parecem fotos, ilustrações, pinturas, animações e basicamente qualquer outro estilo de arte que você possa colocar em palavras.DALL-E 2 aumentou a aposta com melhor resolução, processamento mais rápido e uma função de editor que permite ao usuário fazer alterações dentro de uma imagem gerada usando apenas comandos de texto, como “substituir esse vaso por uma planta” ou “aumentar o nariz do cachorro .”Os usuários também podem fazer upload de uma imagem própria e dizer ao sistema de IA como usá-la.As reações iniciais do mundo a DALL-E 2 foram de espanto e deleite.Qualquer combinação de objetos e criaturas poderia ser reunida em segundos;qualquer estilo de arte podia ser imitado;qualquer local pode ser retratado;e quaisquer condições de iluminação podem ser retratadas.Quem não ficaria impressionado com a visão, por exemplo, de um papagaio fazendo panquecas no estilo de Picasso?Houve também ondas de preocupação, à medida que as pessoas catalogavam as indústrias que poderiam ser facilmente interrompidas por tal tecnologia.A OpenAI não lançou a tecnologia para o público, para entidades comerciais ou mesmo para a comunidade de IA em geral.“Compartilhamos as preocupações das pessoas sobre o uso indevido, e é algo que levamos muito a sério”, disse Mark Chen, pesquisador da OpenAI, ao IEEE Spectrum. .Essa política de testes públicos limitados contrasta com a política do Google com seu próprio gerador de texto para imagem recém-lançado, o Imagen.Ao revelar o sistema, o Google anunciou que não liberaria código ou demonstração pública devido aos riscos de uso indevido e geração de imagens prejudiciais.O Google lançou um punhado de imagens muito impressionantes, mas não mostrou ao mundo nenhum conteúdo problemático ao qual aludiu.Isso torna as imagens que saíram dos primeiros experimentadores do DALL-E 2 mais interessantes do que nunca.Os resultados que surgiram nos últimos meses dizem muito sobre os limites da tecnologia de aprendizado profundo de hoje, nos dando uma janela para o que a IA entende sobre o mundo humano – e o que ela não entende.A OpenAI gentilmente concordou em executar alguns prompts de texto do Spectrum pelo sistema.As imagens resultantes estão espalhadas por este artigo.Spectrum pediu "uma pintura no estilo Picasso de um papagaio jogando panquecas", e DALL-E 2 serviu.OpenAIO DALL-E 2 foi treinado em aproximadamente 650 milhões de pares imagem-texto extraídos da Internet, de acordo com o artigo que a OpenAI postou no ArXiv.A partir desse enorme conjunto de dados, ele aprendeu as relações entre as imagens e as palavras usadas para descrevê-las.A OpenAI filtrou o conjunto de dados antes do treinamento para remover imagens que continham conteúdo violento, sexual ou de ódio óbvio.“O modelo não está exposto a esses conceitos”, diz Chen, “portanto, a probabilidade de gerar coisas que não viu é muito, muito baixa”.Mas os pesquisadores afirmaram claramente que essa filtragem tem seus limites e notaram que o DALL-E 2 ainda tem o potencial de gerar material nocivo.Uma vez que esse modelo de “codificador” foi treinado para entender as relações entre texto e imagens, o OpenAI o emparelhou com um decodificador que gera imagens a partir de prompts de texto usando um processo chamado difusão, que começa com um padrão aleatório de pontos e altera lentamente o padrão para criar uma imagem.Novamente, a empresa integrou certos filtros para manter as imagens geradas alinhadas com sua política de conteúdo e se comprometeu a continuar atualizando esses filtros.Prompts que parecem produzir conteúdo proibido são bloqueados e, na tentativa de evitar deepfakes, ele não consegue reproduzir exatamente os rostos que viu durante o treinamento.Até agora, o OpenAI também usou revisores humanos para verificar imagens que foram sinalizadas como possivelmente problemáticas.Por causa do claro potencial de uso indevido do DALL-E 2, a OpenAI inicialmente concedeu acesso a apenas algumas centenas de pessoas, principalmente pesquisadores e artistas de IA.Ao contrário do modelo de geração de linguagem do laboratório, o GPT-3, o DALL-E 2 não foi disponibilizado para uso comercial limitado, e a OpenAI não discutiu publicamente um cronograma para isso.Mas ao navegar pelas imagens que os usuários do DALL-E 2 criaram e postaram em fóruns como o Reddit, parece que algumas profissões deveriam estar preocupadas.Por exemplo, DALL-E 2 se destaca em fotografia de alimentos, no tipo de fotos de banco de imagens usadas para folhetos e sites corporativos e com ilustrações que não pareceriam deslocadas em um pôster de dormitório ou em uma capa de revista.Spectrum pediu um “caricatura ao estilo nova-iorquino de um panda desempregado percebendo que seu trabalho comendo bambu foi roubado por um robô”.OpenAIAqui está a resposta de DALL-E 2 ao prompt: “Um cachorro velho com excesso de peso parece encantado que seus amigos cães mais jovens e saudáveis lembraram de seu aniversário, no estilo de um cartão de felicitações.” OpenAISpectrum estendeu a mão para algumas entidades dentro dessas indústrias ameaçadas.Um porta-voz da Getty Images, fornecedora líder de fotos, disse que a empresa não está preocupada.“Tecnologias como DALL-E não são mais uma ameaça para nossos negócios do que a realidade de duas décadas de bilhões de câmeras de celulares e os trilhões de imagens resultantes”, disse o porta-voz.Além disso, disse o porta-voz, antes que modelos como o DALL-E 2 possam ser usados comercialmente, há grandes questões a serem respondidas sobre seu uso para gerar deepfakes, os preconceitos sociais inerentes às imagens geradas e “os direitos das imagens e as pessoas, lugares e objetos dentro das imagens em que esses modelos foram treinados”.A última parte disso soa como um processo judicial se formando.Rachel Hill, CEO da Association of Illustrators, também levantou as questões de direitos autorais e compensação pelo uso de imagens em dados de treinamento.Hill admite que “as plataformas de IA podem atrair diretores de arte que desejam alcançar uma ilustração rápida e potencialmente de preço mais baixo, principalmente se não estiverem procurando algo de qualidade excepcional”.Mas ela ainda vê uma forte vantagem humana: ela observa que os ilustradores humanos ajudam os clientes a gerar conceitos iniciais, não apenas as imagens finais, e que seu trabalho geralmente depende “da experiência humana para comunicar uma emoção ou opinião e se conectar com o espectador”.Resta saber, diz Hill, se DALL-E 2 e seus equivalentes podem fazer o mesmo, principalmente quando se trata de gerar imagens que se encaixam bem com uma narrativa ou combinam com o tom de um artigo sobre eventos atuais.Para avaliar sua capacidade de replicar os tipos de fotos usadas em comunicações corporativas, a Spectrum pediu “um grupo multiétnico de colegas de trabalho vendados tocando um elefante”.Apesar de todos os pontos fortes do DALL-E 2, as imagens que surgiram de experimentadores ansiosos mostram que ele ainda tem muito a aprender sobre o mundo.Aqui estão três de seus bugs mais óbvios e interessantes.Texto: É irônico que DALL-E 2 se esforce para colocar texto compreensível em suas imagens, dado que é tão hábil em dar sentido aos prompts de texto que usa para gerar imagens.Mas os usuários descobriram que pedir qualquer tipo de texto geralmente resulta em uma mistura de letras.A blogueira de IA Janelle Shane se divertiu pedindo ao sistema para criar logotipos corporativos e observando a bagunça resultante.Parece provável que uma versão futura corrija esse problema, principalmente porque o OpenAI tem bastante experiência em geração de texto com sua equipe GPT-3.“Eventualmente, um sucessor de DALL-E será capaz de soletrar Waffle House, e eu lamentarei esse dia”, diz Shane ao Spectrum."Eu vou ter que passar para um método diferente de mexer com isso."Para testar as habilidades de DALL-E 2 com texto, Spectrum usou a famosa pintura Magritte que tem as palavras francesas “Ceci n'est pas une pipe” abaixo da imagem de um cachimbo.Spectrum pediu as palavras “Isto não é um cachimbo” abaixo da imagem de um cachimbo.OpenAICiência: Você poderia argumentar que DALL-E 2 entende algumas leis da ciência, uma vez que pode facilmente representar um objeto caído caindo ou um astronauta flutuando no espaço.Mas pedir um diagrama anatômico, uma imagem de raio-X, uma prova matemática ou uma planta produz imagens que podem estar superficialmente corretas, mas fundamentalmente erradas.Por exemplo, Spectrum pediu a DALL-E 2 uma “ilustração do sistema solar, desenhado em escala”, e recebeu algumas versões muito estranhas da Terra e seus muitos vizinhos interplanetários presumidos – incluindo nosso favorito, Planet Hard-Boiled Egg .“DALL-E não sabe o que é ciência.Ele apenas sabe ler uma legenda e desenhar uma ilustração”, explica Aditya Ramesh, pesquisadora da OpenAI, “então tenta criar algo visualmente semelhante sem entender o significado”.Spectrum pediu “uma ilustração do sistema solar, desenhado em escala”, e recebeu de volta uma coleção muito cheia e estranha de planetas, incluindo uma Terra blobby no canto inferior esquerdo e algo parecido com um ovo cozido no canto superior esquerdo.OpenAIRostos: Às vezes, quando DALL-E 2 tenta gerar imagens fotorrealistas de pessoas, os rostos são puro pesadelo.Isso ocorre em parte porque, durante seu treinamento, o OpenAI introduziu algumas proteções de deepfake para impedir que ele memorize rostos que aparecem com frequência na Internet.O sistema também rejeita imagens enviadas se contiverem rostos realistas de qualquer pessoa, mesmo de pessoas não famosas.Mas um problema adicional, disse um representante da OpenAI ao Spectrum, é que o sistema foi otimizado para imagens com um único foco de atenção.É por isso que é ótimo em retratos de pessoas imaginárias, como este retrato com nuances produzido quando Spectrum pediu “um astronauta olhando para a Terra com uma expressão melancólica no rosto”, mas bastante terrível em fotos de grupo e cenas de multidão.Veja o que aconteceu quando o Spectrum pediu uma foto de sete engenheiros reunidos em torno de um quadro branco.Esta imagem mostra a habilidade de DALL-E 2 com retratos.Também mostra que o preconceito de gênero do sistema pode ser superado com instruções cuidadosas.Esta imagem foi uma resposta ao prompt “um astronauta olhando para a Terra com uma expressão melancólica em seu rosto”.Quando DALL-E 2 é solicitado a gerar imagens de mais de um humano ao mesmo tempo, as coisas desmoronam.Esta imagem de “sete engenheiros reunidos em torno de um quadro branco” inclui alguns rostos e mãos monstruosos.OpenAIBias: Nós iremos um pouco mais a fundo neste importante tópico.O DALL-E 2 é considerado um sistema de IA multimodal porque foi treinado em imagens e texto e exibe uma forma de viés multimodal.Por exemplo, se um usuário pedir para gerar imagens de um CEO, um construtor ou um jornalista de tecnologia, ele normalmente retornará imagens de homens, com base nos pares imagem-texto que viu em seus dados de treinamento.Spectrum consultou DALL-E 2 por uma imagem de “um jornalista de tecnologia escrevendo um artigo sobre um novo sistema de IA que pode criar imagens notáveis e estranhas”.Esta imagem mostra uma de suas respostas;os outros são mostrados no topo deste artigo.OpenAIA OpenAI pediu a pesquisadores externos que trabalham nessa área que servissem como uma “equipe vermelha” antes do lançamento do DALL-E 2, e seus insights ajudaram a informar a descrição da OpenAI sobre os riscos e limitações do sistema.Eles descobriram que, além de replicar os estereótipos sociais em relação ao gênero, o sistema também super-representa os brancos e as tradições e configurações ocidentais.Um grupo de equipe vermelha, do laboratório de Mohit Bansal na Universidade da Carolina do Norte, Chapel Hill, havia criado anteriormente um sistema que avaliava o primeiro DALL-E quanto ao viés, chamado DALL-Eval, e o usaram para verificar a segunda iteração também.O grupo agora está investigando o uso de tais sistemas de avaliação no início do processo de treinamento - talvez amostrando conjuntos de dados antes do treinamento e buscando imagens adicionais para corrigir problemas de sub-representação ou usando métricas de viés como uma penalidade ou sinal de recompensa para empurrar o sistema de geração de imagens em a direção certa.Chen observa que uma equipe da OpenAI já começou a experimentar “mitigações de aprendizado de máquina” para corrigir vieses.Por exemplo, durante o treinamento do DALL-E 2, a equipe descobriu que a remoção de conteúdo sexual criava um conjunto de dados com mais homens do que mulheres, o que fazia com que o sistema gerasse mais imagens de homens.“Então, ajustamos nossa metodologia de treinamento e aumentamos as imagens de mulheres para que tenham maior probabilidade de serem geradas”, explica Chen.Os usuários também podem ajudar o DALL-E 2 a gerar resultados mais diversos especificando gênero, etnia ou localização geográfica usando prompts como "uma astronauta feminina" ou "um casamento na Índia".Mas os críticos do OpenAI dizem que a tendência geral de treinar modelos em grandes conjuntos de dados sem curadoria deve ser questionada.Vinay Prabhu, pesquisador independente que foi coautor de um artigo de 2021 sobre viés multimodal, sente que a comunidade de pesquisa de IA supervaloriza a ampliação de modelos por meio de “força de engenharia” e subestima a inovação.“Existe essa sensação de falsa claustrofobia que parece ter consumido o campo onde conjuntos de dados baseados na Wikipedia abrangendo [cerca de] 30 milhões de pares de imagem-texto são de alguma forma declarados ad hominem como 'muito pequenos'!”ele diz Spectrum em um e-mail.Prabhu defende a ideia de criar conjuntos de dados menores, mas “limpos”, de pares imagem-texto de fontes como Wikipedia e e-books, incluindo livros didáticos e manuais.“Também poderíamos lançar (com a ajuda de agências como a UNESCO, por exemplo) um esforço global para contribuir com imagens com descrições de acordo com as melhores práticas do W3C e o que for recomendado pelas comunidades com deficiência visual”, sugere.A equipe do DALL-E 2 diz que está ansiosa para ver quais falhas e falhas os primeiros usuários descobrem enquanto experimentam o sistema e já estão pensando nos próximos passos.“Estamos muito interessados em melhorar a inteligência geral do sistema”, diz Ramesh, acrescentando que a equipe espera construir “uma compreensão mais profunda da linguagem e sua relação com o mundo em DALL-E”.Ele observa que o GPT-3 gerador de texto da OpenAI tem uma compreensão surpreendentemente boa de senso comum, ciência e comportamento humano.“Um objetivo aspiracional poderia ser tentar conectar o conhecimento que o GPT-3 tem ao domínio da imagem por meio do DALL-E”, diz Ramesh.Como os usuários trabalharam com o DALL-E 2 nos últimos meses, sua admiração inicial por seus recursos mudou rapidamente para perplexidade com suas peculiaridades.Como um experimentador colocou em um post no blog, “Trabalhar com DALL-E definitivamente ainda é como tentar se comunicar com algum tipo de entidade alienígena que não raciocina na mesma ontologia dos humanos, mesmo que teoricamente entenda o idioma inglês .”Um dia, talvez, a OpenAI ou seus concorrentes criem algo que se aproxime da arte humana.Por enquanto, vamos apreciar as maravilhas e risos que vêm de uma inteligência alienígena – talvez vindos do Planeta Hard-Boiled Egg.Eliza Strickland é editora sênior do IEEE Spectrum, onde cobre IA, engenharia biomédica e outros tópicos.Ela tem mestrado em jornalismo pela Universidade de Columbia.O drone leve movido a energia solar opera sem parar por mesesDaniel P. Dern é jornalista freelance.Ele escreve sobre as carreiras de engenheiros, bem como uma variedade de tópicos de tecnologia.Julie Angus, cofundadora e CEO da Open Ocean Robotics, mostra um dos USVs Data Xplorer construídos pela empresa.Como a maior parte da vasta área do oceano está longe da terra, pode ser perigoso e caro para as embarcações tripuladas realizarem expedições de pesquisa.Isso estimulou Julie Angus a cofundar a startup Open Ocean Robotics para projetar, construir e operar drones de veículos de superfície não tripulados (USV) oceânicos.Ela é a CEO da empresa.“Os oceanos do nosso planeta estão cheios de informações que podem nos ajudar a proteger a vida marinha em risco, permitir que os navios selecionem rotas mais eficientes em termos de combustível, reprimam a pesca ilegal, entendam melhor os impactos das mudanças climáticas e muito mais”, diz Angus.O membro do IEEE também pertence à IEEE Oceanic Engineering Society.A startup oferece dados marítimos como um serviço usando seus drones oceânicos Data Xplorer movidos a energia solar, que eliminam a necessidade de embarcações tripuladas tradicionais.Eles podem viajar por meses coletando dados oceânicos e ambientais.“Nossa equipe ajudará você a planejar a missão e executá-la do início ao fim”, diz ela.A empresa projeta e constrói o casco, o convés e as placas de circuito do drone.Existe uma patente pendente no sistema de roll-bar auto-endireitante.O drone está equipado com câmeras eletro-ópticas e infravermelhas.Seus sensores incluem hidrofones que podem ouvir a vida marinha, bem como sensores ambientais para medir a temperatura da água, salinidade, turbidez e condições climáticas.O USV pesa pouco mais de 100 quilos e seu motor o impulsiona a até 33,3 quilômetros por hora.“Temos streaming de vídeo em 360 graus, para que o operador possa usar um joystick para dirigir remotamente o barco”, diz Angus.“Caso contrário, nosso portal de comando e controle pode programar um veículo para atividade autônoma, como carregar uma rota [para] fazer um levantamento de grade”.Graças à combinação de células solares e baterias de lítio, ela diz, “nossos barcos podem operar e viajar sem parar por meses, sem precisar de reabastecimento ou recarga externa”.A Open Ocean Robotics recebeu vários prêmios e reconhecimentos, incluindo ser nomeada 2019 IEEE N3XT Star.O programa N3XT apresenta fundadores orientados por engenharia e tópicos empresariais.A empresa começou na garagem dos Anguses em Vancouver Island, BC, Canadá, em 2018. No ano seguinte, a empresa mudou-se para o centro de pesquisa e tecnologia do Vancouver Island Technology Park.Hoje, a Open Ocean tem mais de duas dúzias de funcionários em tempo integral, além de contratados e funcionários de meio período, elevando o total para pouco mais de 30. A empresa recebeu mais de US$ 5 milhões em financiamento.Angus sabe em primeira mão como o oceano pode ser desafiador.Suas expedições aquáticas ao redor do mundo incluem cinco meses durante 2005 e 2006, quando ela e seu marido remaram de Portugal para a Costa Rica.Foi a primeira vez que uma mulher atravessou o Oceano Atlântico a remo de continente a continente.Em 2009, o casal cofundou a Angus Rowboats, que fabrica barcos a remo e cria kits e planos de veleiros para o mercado recreativo.“Nossos barcos podem operar e viajar sem parar por meses, sem precisar de reabastecimento ou recarga externa.”Angus também traz uma perspectiva acadêmica para suas reflexões sobre as profundezas.Ela é bacharel em biologia e psicologia pela McMaster University, em Hamilton, Ont., Canadá, e mestre em biologia molecular pela University of Victoria, na Colúmbia Britânica.Em junho, a Open Ocean Robotics tinha três Data Xplorers em serviço e mais dois quase concluídos.Ela planeja começar a fabricar outros 10 ainda este ano.“Ainda estamos fazendo projetos-piloto principalmente no Canadá e nos Estados Unidos, mas estamos fazendo a transição para contratos de receita mais recorrente”, diz Angus.A startup está ansiosa por novas tecnologias, como estações base menores para satélites de comunicação em órbita baixa da Terra quando seu USV não puder obter serviço de celular.A empresa também planeja investir em avanços contínuos em células fotovoltaicas e armazenamento de energia – e sensores menores e mais eficientes em termos de energia.Embora a Open Ocean esteja comprometida com seu foco marítimo, “não estamos necessariamente nos limitando a veículos de superfície”, diz Angus.“Também posso imaginar ter drones aéreos ou veículos submarinos como parte de nossos serviços de coleta de dados.Para nós, o objetivo é a coleta de dados, ajudando a construir uma Internet das Coisas para o mar.”Este artigo aparece na edição impressa de agosto de 2022 como “Julie Angus”.Os destinatários foram reconhecidos por seu trabalho em semicondutores e na InternetLeslie Russell é a gerente sênior de apresentação de prêmios das Atividades de Prêmios IEEE.Conheça os ganhadores do IEEE Technical Field Awards de 2023 e do Eric Herz Outstanding Staff Member Award de 2022.Os prêmios são apresentados em nome do Conselho de Administração do IEEE.Patrocinadores: Circuitos e Sistemas IEEE, Engenharia em Medicina e Biologia e Sociedades de Processamento de SinaisDuke University Durham, Carolina do Norte“Por uma tecnologia mais acessível globalmente para a saúde da mulher relacionada ao rastreamento, diagnóstico e tratamento do câncer.”“Para contribuições teóricas para a integração de óxidos de alto k em semicondutores.”Patrocinador: IEEE Control Systems Society“Para contribuições para aplicações e teoria para controle de sistemas não lineares e multiagentes.”Patrocinadores: IEEE Antenas e Propagação, Compatibilidade Eletromagnética, Geociências e Sensoriamento Remoto e Sociedades de Teoria e Técnicas de Microondas“Por contribuições para a otimização eletromagnética e a modelagem de estruturas, circuitos e dispositivos de alta frequência.”PRÊMIO IEEE JAMES L. FLANAGAN DISCURSO E PROCESSAMENTO DE ÁUDIOPatrocinador: Mitsubishi Electric Research Labs (MERL)“Por contribuições pioneiras para a tradução de idiomas falados e tecnologias de suporte.”PRÊMIO IEEE FOURIER PARA PROCESSAMENTO DE SINALPatrocinador: Mitsubishi Electric Research Labs (MERL)“Por excelentes contribuições para o avanço das técnicas de processamento de sinal e suas aplicações práticas, e pela liderança técnica.”PRÊMIO IEEE ANDREW S. GROVEPatrocinador: IEEE Electron Devices Society“Por contribuições para conceitos de dispositivos semicondutores inovadores e avançados e sua implementação.”PRÊMIO IEEE HERMAN HALPERIN DE TRANSMISSÃO E DISTRIBUIÇÃO ELÉTRICAPatrocinadores: Robert e Ruth Halperin Foundation, em memória de Herman e Edna Halperin, e a IEEE Power & Energy SocietyUniversidade Técnica Nacional de Atenas“Por contribuições para o desenvolvimento de microrredes e liderança em redes de distribuição inteligentes distribuídas e descentralizadas.”PRÊMIO DE TECNOLOGIA DE CONSUMIDOR IEEE MASARU IBUKA“Pela liderança na criação de sistemas operacionais abertos e gratuitos para computadores embarcados usados em eletrônicos de consumo.”Laboratório Nacional de Argonne, Lemont, Illinois.Universidade do Sul da Califórnia, Marina del Rey“Por contribuições para o design, implantação e aplicação de plataformas de computação globais práticas em escala da Internet.”PRÊMIO IEEE RICHARD HAROLD KAUFMANNPatrocinador: IEEE Industry Applications SocietyUniversidade do Colorado em Boulder“Por contribuições para a qualidade de energia na operação do sistema de energia, máquinas elétricas, energia renovável e acionamentos.”PRÊMIO IEEE JOSEPH F. KEITHLEY EM INSTRUMENTAÇÃO E MEDIÇÃOPatrocinadores: Keithley Instruments, uma Tektronix Co., e a IEEE Instrumentation and Measurement Society“Para medição de baixa incerteza da constante de Planck de fundamental importância para a redefinição do Sistema Internacional de Unidades (SI).”PRÊMIO IEEE GUSTAV ROBERT KIRCHHOFFPatrocinador: IEEE Circuits and Systems Society“Pela descoberta de fenômenos caóticos em circuitos eletrônicos e por contribuições para o desenvolvimento da dinâmica não linear.”PRÊMIO IEEE KOJI KOBAYASHI COMPUTADORES E COMUNICAÇÕES“Por contribuições para o design de serviços de nuvem e rede de computadores.”PRÊMIO IEEE WILLIAM E. NEWELL POWER ELECTRONICSPatrocinador: IEEE Power Electronics SocietyUniversidade do Colorado em Boulder“Para contribuições para controle digital, modelagem e topologias de fontes de alimentação comutadas.”PRÊMIO IEEE DONALD O. PEDERSON EM CIRCUITOS DE ESTADO SÓLIDOPatrocinador: IEEE Solid-State Circuits Society“Por contribuições pioneiras para circuitos e sistemas integrados seguros com eficiência energética e alto desempenho.”“Pela liderança em pesquisa e desenvolvimento de materiais, processos e equipamentos semicondutores.”“Para pesquisas pioneiras em fotônica integrada, incluindo silício, nitreto de silício, dispositivos III-V e sua integração heterogênea.”PRÊMIO IEEE ROBÓTICA E AUTOMAÇÃOPatrocinador: IEEE Robotics and Automation Society“Por contribuições pioneiras para o design, realização e fundamentos teóricos de sistemas autônomos em rede distribuídos e inovadores.”Patrocinador: IEEE Computational Intelligence Society“Por contribuições para a teoria e aplicação de redes neurais e sistemas de aprendizagem em monitoramento e controle.”Patrocinador: IEEE Nuclear and Plasma Sciences SocietyMiller Engenharia e Pesquisa Corp.“Pela liderança e contribuições para o avanço do projeto, construção, implantação e operação de sistemas espaciais robustos e capazes.”PRÊMIO IEEE INOVAÇÃO EM INFRAESTRUTURA SOCIALPatrocinadores: Hitachi, Ltd. e theIEEE Computer Society“Por ultrapassar os limites do processamento de linguagem natural para análise de mídia social, resumo de notícias, informática de crise e criação de uma biblioteca digital para atendimento ao paciente.”PRÊMIO IEEE CHARLES PROTEUS STEINMETZ“Por defender o desenvolvimento global de padrões tecnológicos voluntários liderados pelo mercado por meio de décadas de contribuições para a governança e a estratégia de organizações internacionais.”PRÊMIO IEEE ERIC E. SUMNER“Para contribuições aos protocolos de roteamento e ponte da Internet.”Patrocinadores: Wolong Electric e IEEE Industry Applications and Power & EnergysocietiesUniversidade de Illinois em Urbana-Champaign“Para contribuições para máquinas elétricas avançadas de alta densidade de potência e aplicações de tecnologia supercondutora de alta temperatura.”Patrocinadores: O falecido Kiyo Tomiyasu e as sociedades IEEE Geoscience and Remote Sensing and Microwave Theory and Techniques“Por contribuições para a descoberta de ferroeletricidade em óxidos à base de háfnio.”Patrocinadores: Aplicações da Indústria IEEE, Eletrônica Industrial, Sistemas Inteligentes de Transporte, Teoria e Técnicas de Microondas, Eletrônica de Potência, Energia e Energia e Tecnologia Veicular Sociedades“Por contribuições para o desenvolvimento e promoção da aplicação da tecnologia de ondas milimétricas em sistemas de transporte.”PRÊMIO DE TECNOLOGIA DE EMBALAGEM ELETRÔNICA IEEE RAO R. TUMMALAPatrocinadores: IEEE Electronics Packaging Society e Amigos de Rao R. Tummala“Pela liderança científica e tecnológica em embalagens, co-design e confiabilidade “Mais do que Moore” (MtM).”IEEE LEON K. KIRCHMAYER PRÊMIO DE ENSINO DE GRADUAÇÃOPatrocinador: Leon K. Kirchmayer Memorial FundÉcole Polytechnique Fédérale de Lausanne“Por contribuições para a educação de pós-graduação, capacitando alunos e mentores que avançaram no mundo da comunicação sem fio e de engenharia.”Instituto de Tecnologia Rose Hulman“Por contribuições para a educação robótica multidisciplinar e liderança na criação de uma plataforma nacional para diversificar STEM.”PRÊMIO DE MEMBRO EXCELENTE DA PESSOAL IEEE ERIC HERZ 2022“Para desempenho consistente de alto nível atendendo à região IEEE 10.”Pesquisadores da NYU desenvolveram uma solução de IA que pode aproveitar feeds de vídeo públicos para informar melhor os tomadores de decisãoDexter Johnson é editor colaborador do IEEE Spectrum, com foco em nanotecnologia.Este é um artigo patrocinado trazido a você pela Tandon School of Engineering da NYU.Em meio à pandemia do COVID-19, em 2020, muitos grupos de pesquisa buscaram um método eficaz para determinar padrões de mobilidade e densidades de multidões nas ruas de grandes cidades como Nova York para fornecer informações sobre a eficácia do ficar em casa e estratégias de distanciamento social.Mas enviar equipes de pesquisadores para as ruas para observar e tabular esses números envolveria colocar esses pesquisadores em risco de exposição à própria infecção que as estratégias deveriam conter.Pesquisadores do Centro de Cidades Conectadas para Mobilidade Inteligente para Transporte Acessível e Resiliente (C2SMART) da Universidade de Nova York (NYU), um Centro de Transporte Universitário financiado pelo USDOT Tier 1, desenvolveu uma solução que não apenas eliminou o risco de infecção para pesquisadores, e que poderia ser facilmente conectado à infraestrutura de alimentação de câmeras de tráfego público já existente, mas também fornece os dados mais abrangentes sobre densidades de tráfego e multidão que já foram compilados anteriormente e não podem ser facilmente detectados por sensores de tráfego convencionais.Para conseguir isso, os pesquisadores do C2SMART aproveitaram os feeds de vídeo do Departamento de Transporte da Cidade de Nova York (DOT) disponíveis publicamente da cobertura de mais de 700 locais em toda a cidade de Nova York e aplicaram um método de detecção de objetos baseado em câmera de aprendizado profundo que permitiu aos pesquisadores calcular pedestres e densidades de tráfego sem precisar sair para as ruas.“Nossa ideia era aproveitar esses feeds de câmeras DOT e gravá-los para que pudéssemos entender melhor o comportamento de distanciamento social dos pedestres”, disse Kaan Ozbay, diretor do C2SMART e professor da NYU.Para fazer isso, Ozbay e sua equipe criaram um “rastreador” – essencialmente uma ferramenta para indexar o conteúdo do vídeo automaticamente – para capturar as imagens de baixa qualidade dos feeds de vídeo disponíveis na internet.Em seguida, eles usaram um algoritmo de processamento de imagem de aprendizado profundo pronto para usar para processar cada quadro do vídeo e aprender o que cada quadro contém: um ônibus, um carro, um pedestre, uma bicicleta etc. O sistema também desfoca qualquer identificando imagens como rostos, sem afetar a eficácia do algoritmo.O sistema desenvolvido pela equipe da NYU pode ajudar a informar a compreensão dos tomadores de decisão sobre uma ampla gama de questões, desde respostas de gerenciamento de crises, como comportamentos de distanciamento social até congestionamento de tráfego“Isso nos permite identificar o que está no quadro para determinar a relação entre os objetos nesse quadro”, disse Ozbay.“Então, com base em um novo método que elimina a necessidade de referência in-situ real que criamos, somos capazes de medir com precisão a distância entre as pessoas no quadro para ver se elas estão muito próximas umas das outras, ou é muito superlotado."O mais fácil teria sido apenas contar quantas pessoas estavam dentro de cada quadro.No entanto, como explicou Jingqin Gao, pesquisador associado sênior da NYU, a razão pela qual eles buscaram um método de detecção de objetos em vez de mera enumeração é porque o feed público não é contínuo, com intervalos que duram vários segundos ao longo do feed.“Em vez de tentar contar com precisão os pedestres que cruzam uma linha, estamos tentando entender a densidade de pedestres em ambientes urbanos, especialmente para aqueles lugares que normalmente estão lotados, como paradas de ônibus e faixas de pedestres”, disse Gao.“Queríamos saber se eles estavam mudando seu comportamento em meio à pandemia.”