Virtual influencers explained

Virtual influencers are computer-generated characters that can be human-like, with realistic features, personalities, and characteristics. They are also referred to as digital avatars, CG-models, or digital characters. And, while they don’t exist in the physical world with us, they live very full lives on social media. Virtual influencers are created and managed by their creators. The creators are the ones who put in the work creating the backstories, growing followers on social media platforms, and overall marketing the virtual influencers. Their creators build these virtual influencers to meet their own needs and specifications, from what they look like to what they wear to how they behave. And, of course, they also manage the relationships and collaborations.

Some of their advantages are: reduced expenses that come from not having to pay a real person, not having to travel physically, etc.; they are never tired, they don’t have needs, and they are a mould that can fit any style or job. However, the teams behind them are expensive, because now instead of paying one person, brands that want to use them have to pay for the 3D model creator, the voice actor, the story writer, the fashion designer, the editor, to name a few. Additionally, however realistic they might seem at first glance, they lose their novelty quite fast.

In terms of how much money these virtual influencers make, it is said that the virtual human Lil Mickela, introduced by U.S. startup Brud, earned 14.2 billion KRW (~12.4 million USD) in 2019 alone. It has been reported that the price of one post on her Instagram, which has 3 million followers, is about 10 million KRW (~8,500 USD) per post. Imma, created by Japanese startup IWW, earned 700 million KRW (~610,682 USD) last year alone, including filming advertisements for furniture brand IKEA.  A virtual human RUI created by D.O.V. Studio was selected as a brand model for Patra X Living Zium’s campaign following the Korea Tourism Organization’s ‘Korea Safe Travel’ campaign model. Business Insider, a U.S. market research firm, predicts that companies’ marketing costs related to virtual humans will increase from about 8.84 trillion KRW in 2019 to about 16.6 trillion KRW in 2022.

Sources:

Influence Marketing Hub, “What Are Virtual Influencers and How Do They Work”

AllKpop, “How much do virtual influencers make and why are they gaining so much popularity?”

Conference Paper: A Critical Evaluation of Aerial Datasets for Semantic Segmentation

 2020 IEEE 16th International Conference on Intelligent Computer Communication and Processing (ICCP 2020)

Abstract: Drone perception systems use information from sensor fusion to perform tasks like object detection and tracking, visual localization and mapping, trajectory planning, and autonomous navigation. Applying these functions in real environments is a complex problem due to three-dimensional structures like trees, buildings, or bridges since the sensors (usually cameras) have limited viewpoints. We are interested in creating an application that is aimed towards inspection of forests with a focus on deforestation, with the main objectives being building a 3D semantic map of the environment and visual inspection of trees. In this paper, we evaluate three new datasets recorded at various flight altitudes, in terms of class balance, training performance on the semantic segmentation task, and the ability to transfer knowledge from one set to another. Our findings showcase the strengths of these datasets, while also pointing out their shortcomings, and offering future development ideas and raising research questions.

Paper download link: A Critical Evaluation of Aerial Datasets for Semantic Segmentation

ResearchGate

Recunoașterea internațională a cercetării și inovării din Universitatea Tehnică din Cluj-Napoca (The Champions League of Autonomous Driving)

Articol preluat de pe site-ul Universității Tehnice din Cluj-Napoca

În tehnologia prezentului, funcțiile de asistare a conducerii precum “Lane Assist” și “Adaptive Cruise Control (ACC)” garantează o siguranță mai mare atunci când se circulă pe autostrăzi sau străzi principale. Conducerea autonomă, în special în zone urbane, reprezintă o provocare complet diferită. Provocările sunt mult mai numeroase și dificil de soluționat. În cadrul proiectului „Automated Urban Parking and Driving – UP-Drive”, de tip Orizont 2020, finanțat de Comisia Europeană, membrii consorțiului format din Volkswagen AG, Universitatea Tehnică din Cluj-Napoca (UTCN) Universitatea Tehnică din Praga, ETH Zurich și IBM Research Zurich, au colaborat pentru a oferi o soluție conducerii autonome în mediul urban.

Acest consorțiu format din companii și universități și-a propus să accelereze dezvoltarea
conducerii autonome – investigând, propunând și utilizând soluții bazate pe noile soluții
din domeniul inteligenței artificiale (AI). Arhitectura soluției propuse include: un vehicul electric dotat cu senzorii și actuatorii necesari pentru controlul digital dezvoltat de Volkswagen; infrastructura de comunicație necesară includerii vehiculului într-un sistem de tip „cloud” pentru întreținerea și utilizarea continuă a hărții detaliate a mediului dezvoltat de IBM Zurich; modulul de percepție senzorială având rolul furnizării unei descrieri 3D a mediului dezvoltat de UTCN; modulul de localizare și mapare continuă dezvoltat de ETH Zurich; modulul de înțelegere a scenei dezvoltat de UT Praga și modulul de planificare și navigare dezvoltat de Volkswagen.

Responsabilitatea specifică a UTCN în cadrul proiectului a fost percepția senzorială pentru crearea unei reprezentări 3D a mediului. Această reprezentare este folosită atât de modulele de localizare și înțelegere a scenei cât și direct de modulul de planificare și navigare.

Echipa de cercetare din cadrul UTCN a dezvoltat o soluție originală de percepție cu următoarele caracteristici importante: calibrare de mare acuratețe, acoperire senzorială de 360 grade, acoperire senzorială redundantă cu senzori de tip camere color, RADAR-e și LiDAR-e, redundanță algoritmică, utilizarea metodelor de învățare profundă pentru obținerea unor algoritmi mai robuști.

O contribuție importantă adusă de UTCN a fost definirea și implementarea unei reprezentări intermediare a mediului prin fuziunea datelor geometrice furnizate de senzorii 3D cu informația semantică extrasă din imagini obținându-se astfel un nor de puncte 3D semantic. Această reprezentare permite implementarea unor soluții de  detecție, clasificare și urmărire a obiectelor în spațiul 3D superioare calitativ soluțiilor bazate pe senzorii individuali sau soluțiilor bazate pe fuziunea detecțiilor senzorilor individuali.

O altă contribuție importantă se referă la studiul, dezvoltarea și utilizarea metodelor de învățare profundă, cunoscute si sub numele de „Deep Learning”, pentru implementarea algoritmilor de segmentare semantică, detecție și clasificare a obiectelor în spațiul 2D furnizând astfel informație semantică de calitate pentru asocierea cu informația geometrică furnizată de senzorii 3D.

Proiectarea, implementarea, testarea, validarea și integrarea sistemului de percepție pe vehicul cu satisfacerea cerințelor de acuratețe și timp real a permis atingerea obiectivelor proiectului prin materializarea și experimentarea vehiculului autonom. În 27 noiembrie 2019 la Wolfsburg, Germania a avut loc prezentarea publica a vehiculului. O sinteză a evenimentului este disponibilă pe youtube.

Grupul Volkswagen în articolul publicat pe site-ul propriu cataloghează realizarea ca intrarea consorțiului în „The Champions League of Autonomous Driving”. Activitatea de cercetare a UTCN a fost desfășurată în cadrul Centrului de Cercetare pentru Procesare de Imagine si Recunoașterea Formelor, din cadrul Departamentului de Calculatoare al Facultății de Automatică și Calculatoare, sub îndrumarea Prof. Dr. Ing. Sergiu Nedevschi.

Echipa de cercetători a fost formată din: Conf. Dr. Ing. Florin Oniga, Conf. Dr. Ing. Tiberiu Marița, Conf. Dr. Mat. Ioan Radu Peter, S.L. Dr. Ing. Ion Giosan, S.L. Dr. Ing. Robert Varga, Dr. Ing. Arthur Costea, Drd ing. Andra Petrovai, Drd. ing. Flaviu Vancea, Drd ing. Horațiu Florea, Drd. Ing. Vlad Miclea, Drd. Ing. Mircea Paul Mureșan, Drd. ing. Zelia Blaga si masterand ing. Selma Goga.

Conference Paper: DAR: Implementation of a Drone Augmented Reality Video Game

dar-page1.png

Abstract: Augmented reality video games combine the elements of a virtual application with those of the real world. With the recent advances in technology, this type of digital content is easily available to users. The player experience is enhanced by bringing the virtual experience to the world around us, and new interaction techniques emerge. We propose a video game in which the user controls a virtual drone which interacts with objects situated in a real environment. We present the development methodology that we followed in order to bring this project to life, from the early stages of topic selection to implementation details, and finally to the evaluation step.

Paper download link: DAR: Implementation of a Drone Augmented Reality Video Game

ResearchGate link: paper