Beyond the artificial green (2021)

Beyond the artificial green / 인공의 녹색을 넘어서

Type : AI Installation
Material : Deep Learning Libraries (stylegan, biggan), trash image DB
Size : dimension variable, Full 10’00”, Resolution : 1920 x 1080 x 1ch
Year : 2021


이 작업은 환경에 대한 복잡계적 시스템의 접근으로, 인공지능 / 데이터 / 로보틱스 등의 3요소를 바탕으로 구성되었다. 

내용적인 측면은 환경 오염에 대한 데이터를 통해 근미래의 상황을 시스템의 입장에서 그려본 작업이다. 

우선 인공지능 학습 부분 중 비디오 출력은 딥러닝 라이브러리 중 생성적 적대 신경망(GAN(generative adversarial network: stylegan2, biggan))을 사용하여 이미지 데이터로 치환된 쓰레기, 폐기물 이미지를 학습하여 인물과 풍경으로 변환되는 결과를 도출하였다. 사운드 역시 인공지능 음악 라이브러리(Tensorflow magenta, Amper)로 제작되었다. 

영상은 폐기물 매립장이 변화된 자연의 미래 모습 일수도 있고, 쓰레기 봉투에서 파생된 노쇠한 각종의 인물이 환경이 우리에게 미치는 영향으로 보이기도 한다. 환경의 이슈를 컴퓨팅 시스템이 변주한 결과를 통해 우리에게 놓인 상황을 다시금 생각하게하는 비디오 도큐멘테이션 형태로 구현하였다. 

로보틱스와 결합된 타입은 인공지능이 학습한 과정과 풍경으로 귀결된 결과를 관람자가 체험 할수 있도록 구성한 인터랙티브 퍼포먼스형 설치이다. 관람자 혹은 주변 환경의 변화(웹캠으로 반영)에 따라 실시간으로 처리된 결과를 보여주게 된다. 이때 로봇은 입력된 좌표계에 따라 상황을 관찰하는 시각의 운동체로 기능하고, 이 움직임과 상호작용하는 대상에 대한 결과를 디스플레이에 출력한다. 

This work of art is a complex system approach to the environment and is based on three elements: artificial intelligence / data / robotics.
The content aspect is a work that depicts the situation of the near future from the perspective of the system through data on environmental pollution.

First of all, the video output of the artificial intelligence learning segment was derived from the deep learning library using generative adversarial neural networks (GANs (stylegan2, biggan) to learn the trash and waste images replaced with image data to convert them into people and landscapes. Sound was also produced in the Tensorflow Magenta(+Amper)
The video may be the future of nature in which waste landfills have changed, and the environment may be influenced by various aging figures derived from garbage bags. We implement the issues of the environment in a video documentation form that reminds us of the situation that lies with the variations in the computing system.

Combined with Robotics, the type is an interactive performance-type installation that is configured to allow viewers to experience the results resulting from the process learned by artificial intelligence and the landscape. Depending on the changes in the audience or surrounding environment (reflected by webcams), the results will be shown in real time. At this time, the robot functions as an exercise body of vision that observes the situation according to the input coordinate system, and outputs the results for the objects interacting with this movement on the display.