-
- [동문] [인터뷰] 단과대학을 찾아서 - 소프트웨어융합대학 이은석 학장 (전자 81)
- 4차 산업혁명 주역 ‘SW·AI 인력’ 산실 기획 탐방<단과대학을 찾아서> 열번째 순서로 모교 자연과학캠퍼스와 인문사회과학 캠퍼스를 아우르는 소프트웨어융합대학을 찾았다. 소프트웨어융합대학은 2021년 기존 소프트웨어대학과 글로벌융합학부가 합쳐지면서 소프트웨어융합대학으로 새롭게 만들어진 신설 대학으로, 학부와 대학원 뿐 아니라, 고용계약학과인 지능형 SW 학과를 비롯하여 다양한 SW와 AI에 기반한 최첨단 학문을 연구하는 단과대학이다. 소프트웨어융합대학은 현재까지 학사 819명, 일반대학원 석·박사 728명으로 총 1,547명의 동문을 배출 하였으며, 4차산업혁명의 가장 핵심적인 학문을 연구하고 인재를 육성하는 대학답게 AI대학원을 비롯하여 AI융합학과, AI시스템공학과 등을 통합한 ‘글로벌 AI 클러스터’를 운영하고 있다. 이은석 소프트웨어융합대학장은 “글로벌 역량을 갖춘 SW-AI 전문인력양성이 우리대학의 가장 큰 목표”라면서, “최고의 환경에서 고품격의 교육과 최신의 연구를 할 수 있도록 하여, 공동체를 감화시킬 수 있는 가슴 따뜻한 엔지니어를 만들어 나갈 것”이라고 포부를 밝혔다. Q 소프트웨어융합대학에 대한 소개를 부탁드립니다. A 소프트웨어융합대학(이하, 소융대)은 교내 16개 단과대학 중 가장 새로이 만들어진 젊은 조직입니다. 현재 45명의 전임교수와 69명의 비전임교수로 교수진이 구성되어 있으며, 학문적 선진성에도 불구하고 어쩌면 우리 대학의 건학이념인 수기치인(修己治人)을 가장 잘 실천하고 있는 학역(學域) 중 하나로 소개할 수 있을 것 같습니다. 소속 구성원들은 각자 자신을 열심히 연마하며 인류를 위한 미래를 위해 공동체에 헌신하는 노력을 경주하고 있습니다. 학생들은 학교에서 요구하는 공통된 졸업요건에 더해서 한층 엄격한 졸업요건(인턴십, 산학협력프로젝트, 1만라인프로젝트, 졸업작품 등)을 모두 충족해야 합니다. 이를 통해 현업에서 필요로 하는 소프트웨어 엔지니어로서의 기본 소양과 경쟁력을 갖추는 노력을 하고 있으며 이 과정에서 체득한 경험과 지식을 가깝게는 주위 동료나 후배를 위해(peer mentoring), 멀리는 전국의 초중고 학생들과 타 대학, 실버 세대를 위한 SW멘토링을 의무화하고 있습니다(성균SW멘토링). 또한 우리보다 어려운 환경에 있는 국가들에 대한 ICT해외봉사단을 운영하여 우리가 누리는 삶의 혜택을 국경을 초월하여 두루 공유할 수 있도록 노력하고 있습니다. 좋은 기업이나 대학에 취업하는 것이 목표가 아닌 인류나 미래를 얘기하는 것이 부끄럽지 않은 참된 인재를 양성하고자 하는 것이 우리 소융대에 공유되고 있는 교육 이념이고 인재상입니다. Q 소프트웨어융합대학의 역사가 궁금합니다. A 글로벌 역량을 갖춘 SW-AI 전문인력 양성이라는 비전을 가지고 설립된 우리대학은 1982년 정보공학과에서 시작하여, 2015년 소프트웨어대학, 2021년 교내 소프트웨어, 컴퓨터공학 부서와 AI 및 데이터사이언스 관련 교수 및 조직을 통합하여 소프트웨어융합대학으로 확대 개편 되었습니다. 구체적으로는 소프트웨어학과와 글로벌융합학부로 구성되는 학부 조직과 14개의 대학원 프로그램속에 2600여명의 학부생, 800여명의 대학원생, 120여명의 교수진으로 구성된 규모 있는 조직으로 다양한 융합과 통섭의 기회를 학생들을 위해 제공하고 있습니다. 2024학년도부터는 삼성전자와 공동으로 운영하는 고용계약형학과인 지능형SW학과가 학석과정과 석사과정 모두 시작됩니다. 참고로 삼성전자가 지원하는 산학협력 인재양성과정(고용계약형 포함)은 전국적으로 10개가 있으며, 여기에는 반도체, 통신이 주류를 이루고 있고, SW-AI관련 프로그램은 우리 대학만이 보유하고 있습니다. Q 우리대학 소프트웨어융합대학만의 강점과 특징이 있다면 A 대학을 운영하는 주요 재원은 등록금일 수 있지만, 특히 최신 장비와 환경을 갖추는 것이 절대적으로 필요한학문 특성 때문에 학역내 등록금 의존도를 낮추고 스스로의 재원으로 자생할 수 있는 능력이 필요합니다. 그런면에서 우리 소융대는 자발적인 인력 양성용 재원을 확보하는 노력과 역량을 보유하고 있습니다. 현재 진행중인 것으로, 인공지능대학원사업, 소프트웨어중심대학사업, 명품인재양성사업 등을 통해 총액 기준 620억원을 확보하고 있으며 여기에 지능형SW학과를 추가하면 최대 1,000억에 달하게 됩니다. 이를 통해 학부와 대학원의 교육, 연구환경을 첨단화하고 있습니다. 그리고 앞선 수기치인의 흐름속에서 현재의 디지털대전환의 시대에 대학 전체의 학생들의 전공 능력은 물론 SW기반의 융합 능력을 향상시키기 위해 전교생 대상 SW-AI교육의 첨병의 역할을 하고 있습니다. 더욱이 비전공 교수님들을 대상으로 한 AI교육은 이미 그 숫자가 200명을 넘기고 있고 공동의 프로젝트 발굴 등을 통해 실질적인 대학 구성원간의 융합과 통섭이 가능해 졌습니다. 정리하면, 대내적으로는 융합의 핵심으로서, 대외적으로는 경쟁력있는 교육과 연구의 주체로서 강점을 인정받고 있습니다. Q 소프트웨어융합대학이 주안점을 두고 있는 연구분야 또는 연구주제는 또는 프로젝트는 A 다양한 분야가 고루 균형적으로 발전해야 사회적으로 또 기술면에서의 급격한 변화에도 효과적으로 대처하며 대학 본연의 역할을 다 할 수 있다고 생각합니다. 다만 요즘처럼 긴급하게 요구되는 특정 수요에 대응하고 필요한 인력과 연구 성과를 적시에 제공하기 위해서 현재는 AI쪽으로 교육과 연구 인력을 모으고 있습니다. AI관련 교육체계로서는 AI대학원과 AI융합전공, AI융합학과, AI시스템공학과, 지능형SW학과, 스마트팩토리학과 등을 운영하고 있습니다. 이는 AI관련 연구 수행의 중요한 인프라가 되기도 합니다. AI연구 활성화를 위해 글로벌AI 기관 26개를 묶어 ‘글로벌AI클러스터’를 운영하고 있습니다. 이로서 내실있는 AI교육과 연구의 기틀을 마련했다고 생각하고 있습니다. 여기에 추가해서 우리 대학은 시스템SW, SW보안, 소프트웨어공학 등에서 경쟁력을 두루 갖추고 있습니다. Q 소프트웨어융합대학이 지향하는 발전목표가 있다면 A 글로벌 역량을 갖춘 SW-AI 전문인력 양성이라는 큰 목표아래 늘 공동체에 기여하고, 공동체를 감화시킬 수 있는 가슴 따뜻한 엔지니어를 만들어 나가고자 합니다. 대학원은 첨단의 연구 경쟁력을 갖게하여 양질의 논문을 생산할 수 있게 하고, 학부의 경우 산업계와의 연계를 중시하며 현업의 요구사항과 기술적 추이를 반영하며 현장에서 필요로 하는 업무 능력을 습득할 수 있게 할 것입니다. 이를 위해 산업체 전문가들로 구성된 교육과정혁신위원회를 운영하며 현장의 의견을 반영하는 노력을 하고 있습니다. Q 25만 성대 동문들에게 전하고 싶은 말? A 명문대학이 되기위해서는 대학, 재단, 그리고 총동창회가 삼위일체로 최선의 노력을 다하는 것이 필요합니다. 그중 총동창회는 대학 구성원들에게 든든한 뒷배와 같은 역할을 해왔습니다. 지금까지 처럼 모교와 후배들을 위한 많은 관심과 기부를 통해 실질적인 지원을 받는 것도 있으나, 이제 그런 단방향 소통 지원 체계보다 대학이 그동문 조직에 대해 어떤 기여를 할 수 있는지 고민할 시점이 아닌가 합니다. 특히 우리 대학은 모든 산업의 기반이 되는 SW-AI기술을 다루는 만큼 동문 기업들에 대해 기술적 뒷배로서 역할을 할 수 있다고 생각합니다. 동문들께서는 도움이 필요하면 언제든 연락을 주시길 바라며, 상호 호혜적인 건설적 관계를 구축해 나갔으면 합니다. https://alumni.skku.edu/alumni/circular/interview.do?mode=view&articleNo=39609
-
- 작성일 2023-05-23
- 조회수 1073
-
- [연구] 박호건 교수 LearnData 연구실, 지식 추론 연구 SIGKDD 2023 논문 게재 승인 (석사과정: 김수경, 김가영)
- 박호건 교수 연구실 지식 추론 연구 SIGKDD 2023 논문 게재 승인 (석사과정: 김수경, 김가영) LearnData Lab(기계학습/데이터마이닝) 연구실(지도교수: 박호건, https://learndatalab.github.io)의 김수경(공동 1저자), 김가영(공동 1저자), 정희수 학생(석사과정)과 박호건 교수(교신저자)가 제출한 “Exploiting Relation-aware Attribute Representation Learning in Knowledge Graph Embedding for Numerical Reasoning” 논문이 인공지능 분야 최우수 학회 ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD) 2023 (https://kdd.org/kdd2023/) (BK IF=4)의Research Track에서 Full Paper로 게재 승인되었고, 2023년 8월 미국 캘리포니아에서 발표될 예정입니다. 본 논문은 지식 정보를 활용한 수치 추론에 대한 주제로 작성되었습니다. 수치 추론 작업은 지식 그래프에 있는 기존의 관계 정보와 수치 속성(예: 높이)을 활용하여, 잘 알려져 있지 않은 두 가지 엔티티(Mountain A와 Mountain B)를 비교하고 다양한 속성에 대한 새로운 사실(예: A가 더 높음)을 알아 내는 것(추론)하는 것을 목표로 합니다. 그러나 기존의 대부분의 방법은 새로운 속성 인코더를 도입하거나 추가적인 손실을 감수하고 수치 값을 예측해야 하는 한계가 있으며, 수치 속성이 드물게 존재하는 경우 성능이 크게 떨어집니다. 본 논문에서는 지식 그래프에 대한 수치 추론을 강화하는 새로운 그래프 임베딩 방법인 RAKGE를 제안합니다. 제안된 방법에는 관계와 해당 수치 속성 간의 연관성을 활용할 수 있는 새로운 형태의 Representation Learning이 포함됩니다. 또한, 강력한 자기 지도 학습 방법을 도입하여 보이지 않는 긍정 및 부정 예시를 생성함으로써 숫자 속성이 희박한 경우 제안 방법의 예측을 더욱 신뢰할 수 있도록 합니다. Spotify, 개인 신용 정보, 도시 정보 데이터셋 등 세 가지 대규모 데이터 세트에 대해 평가한 결과, 우리가 제안한 모델은 최고 경쟁사 대비 최대 65.1%의 히트율(Hits@1)과 최대 52.6%의 MRR을 달성하며 다른 최신 경쟁 알고리즘보다 뛰어난 성능을 보였습니다. [논문 정보] Exploiting Relation-aware Attribute Representation Learning in Knowledge Graph Embedding for Numerical Reasoning Sookyung Kim+, Gayoung Kim+, Ko Keun Kim, Suchan Park, Heesoo Jung, Hogun Park* ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD) 2023. Full Paper (Research Track). [+ Means Equal Contribution.] [Abstract] Numerical reasoning is one of the essential tasks to support machine learning applications such as recommendation and information retrieval. The reasoning task aims to compare two items and infer the new facts (e.g., is taller than) by leveraging existing relational information and numerical attributes (e.g., the height of an entity) in knowledge graphs. However, most existing methods are limited to introducing new attribute encoders or additional losses to predict the numeric values and are not robust when numerical attributes are sparsely available. In this paper, we propose a novel graph embedding method named RAKGE, which enhances numerical reasoning on knowledge graphs. The proposed method includes relation-aware attribute representation learning, which can leverage the association between relations and their corresponding numerical attributes. Additionally, we introduce a robust self-supervised learning method to generate unseen positive and negative examples, thereby making our approach more reliable when numerical attributes are sparse. Evaluated on three real-world datasets, our proposed model outperforms state-of-the-art methods, achieving an improvement of up to 65.1% in Hits@1 and up to 52.6% in MRR compared to the best competitor.
-
- 작성일 2023-05-23
- 조회수 1925
-
- [연구] 이지형 교수 연구실, ACL 2023 논문 3편 게재 승인
- 정보 및 지능 시스템 연구실(지도교수: 이지형)의 논문 3편이 세계 최고 권위의 자연어처리 학술대회 (BK IF=4) “The 61st Annual Meeting of the Association for Computational Linguistics (ACL’23)”에 게재 승인되었습니다. 논문 #1: “DIP: Dead code Insertion based Black-box Attack for Programming Language Model”, ACL 2023 (인공지능학과 석박통합과정 나철원, 소프트웨어학과 박사과정 최윤석) 논문 #2: “BLOCSUM: Block Scope-based Source Code Summarization via Shared Block Representation”, Findings of ACL 2023 (소프트웨어학과 박사과정 최윤석, 인공지능학과 석사과정 김효준) 논문 #3: “CodePrompt: Task-Agnostic Prefix Tuning for Program and Language Generation”, Findings of ACL 2023 (소프트웨어학과 박사과정 최윤석) (논문 #1) “DIP: Dead code Insertion based Black-box Attack for Programming Language Model” 논문에서는 소스코드를 처리하는 매우 큰 사전학습모델(Large-scale pre-trained models)에 대한 적대적 공격(Adversarial Attack) 방법을 제안합니다. 기존 공격방법인 변수명을 변경하는 Sampling 기반의 방법론은 매우 많은 시도와 낮은 공격 성공률로 비효율적이며, 특히 소스코드의 특징인 컴파일 가능성을 완전히 보존하지 못하는 문제를 제기하였습니다. 이를 해결하기 위해, 소스코드에 영향을 미치지 않는 Dead code를 삽입하는 방법론을 채택하였습니다. 언어를 처리하는 대부분의 사전학습 모델은 Attention mechanism을 갖는 트랜스포머 기반 구조이기 때문에, 적대적 공격의 효율성을 높이기 위하여 어텐션 점수(Attention score)를 활용합니다. 제안된 방법은 3가지 사전학습 모델에 각 3가지 데이터를 미세조정(fine-tuning)한 총 9가지 타겟 모델에 대하여 매우 우수한 공격 성능을 보입니다. [Abstract] Automatic processing of source code, such as code clone detection and software vulnerability detection, is very helpful to software engineers. Large pre-trained Programming Language (PL) models (such as CodeBERT, GraphCodeBERT, CodeT5, etc.), show very powerful performance on these tasks. However, these PL models are vulnerable to adversarial examples that are generated with slight perturbation. Unlike natural language, an adversarial example of code must be semantic-preserving and compilable. Due to the requirements, it is hard to directly apply the existing attack methods for natural language models. In this paper, we propose DIP (Dead code Insertion based Black-box Attack for Programming Language Model), a high-performance and efficient black-box attack method to generate adversarial examples using dead code insertion. We evaluate our proposed method on 9 victim downstream-task large code models. Our method outperforms the state-of-the-art black-box attack in both attack efficiency and attack quality, while generated adversarial examples are compiled preserving semantic functionality. (논문 #2) “BLOCSUM: Block Scope-based Source Code Summarization via Shared Block Representation” 논문에서는 소스코드를 개발자가 한눈에 이해할 수 있는 주석 형태의 자연어로 요약해주는 방법을 제안합니다. 양질의 요약문을 생성하기 위하여, 소스코드 블록의 다양한 구조를 표현함으로써 블록 범위 정보를 활용하는 공유 블록 표현(shared block representation)을 사용합니다. 소스 코드의 기본 구조 요소인 코드 블록을 활용하여 두 가지 방법을 설계했습니다. 첫 번째 방법인 공유 블록 위치 임베딩(position embedding)은 코드 블록의 구조를 효과적으로 나타내고 코드와 AST 인코더 간의 상관관계를 합치는 데 사용됩니다. 또한, 소스 코드의 블록 및 전역 종속성과 같은 풍부한 정보를 학습하기 위해 간단하면서도 효과적인 AST 변형을 재구성했습니다. 실험 결과, 제안방안의 우수성을 입증하고 코드에서 블록 범위 정보의 중요성을 확인했습니다. [Abstract] Code summarization, which aims to automatically generate natural language descriptions from source code, has become an essential task in software development for better program understanding. Abstract Syntax Tree (AST), which represents the syntax structure of the source code, is helpful when utilized together with the sequence of code tokens to improve the quality of code summaries. Recent works on code summarization attempted to capture the sequential and structural information of the source code, but they considered less the property that source code consists of multiple code blocks. In this paper, we propose BLOCSUM, BLOck scope-based source Code SUMmarization via shared block representation that utilizes block-scope information by representing various structures of the code block. We propose a shared block position embedding to effectively represent the structure of code blocks and merge both code and AST. Furthermore, we develop variant ASTs to learn rich information such as block and global dependencies of the source code. To prove our approach, we perform experiments on two real-world datasets, the Java dataset and the Python dataset. We demonstrate the effectiveness of BLOCSUM through various experiments, including ablation studies and a human evaluation. (논문 #3) “CodePrompt: Task-Agnostic Prefix Tuning for Program and Language Generation” 연구에서는 프로그램 및 언어 생성 작업을 위한 작업에 구애받지 않는(Task-agnostic) 프롬프트 튜닝 방법인 CodePrompt를 제안합니다. CodePrompt는 프로그램 및 언어를 위한 사전학습모델(Pre-train Models)의 사전 훈련 및 미세 조정 사이의 간극을 메우기 위해 입력 종속 프롬프트 템플릿을 결합하고, 사전학습모델의 매개 변수(parameters)를 효율적으로 업데이트하기 위해 말뭉치 특정 접두사 튜닝을 사용합니다. 또한, 제한된 접두사 길이에 대한 보다 풍부한 접두사 단어 정보를 제공하기 위한 다중 단어 접두사 초기화 방법을 제안했습니다. 제안 방법은 전체 데이터와 저자원 환경 뿐만 아니라 cross-domain 환경에서도 3가지 프로그램 및 언어 생성 작업(Program and Language Generation)에서 효과적임을 입증했습니다. [Abstract] In order to solve the inefficient parameter update and storage issues of fine-tuning in Natural Language Generation (NLG) tasks, prompt-tuning methods have emerged as lightweight alternatives. Furthermore, efforts to reduce the gap between pre-training and fine-tuning have shown successful results in low resource settings. As large Pre-trained Language Models (PLMs) for Program and Language Generation (PLG) tasks are constantly being developed, prompt tuning methods are necessary for the tasks. However, due to the gap between pre-train and fine-tuning different from PLMs for natural language, a prompt tuning method that reflects the traits of PLM for program language is needed. In this paper, we propose a Task-Agnostic prompt tuning method for the PLG tasks, CodePrompt, that combines Input-Dependent Prompt Template (to bridge the gap between pre-training and fine-tuning of PLMs for program and language) and Corpus-Specific Prefix Tuning (to efficiently update the parameters of PLMs for program and language). Also, we propose a method to provide more rich prefix word information for limited prefix lengths. We prove that our method is effective in three PLG tasks, not only in the full-data setting, but also in the low-resource setting and cross domain setting.
-
- 작성일 2023-05-08
- 조회수 1631
-
- [연구] 우사이먼 교수 연구실, IJCAI 2023 논문 게재 승인
- DASH 연구실 (지도교수: 우사이먼) 김정호 (2023년 석사 졸업), 이한빈 (2022년 석사 졸업)의 “IMF: Integrating Matched Features using Attentive Logit in Knowledge Distillation” 논문이 인공지능 분야 최우수 학회 (BK IF=4) International Joint Conferences on Artificial Intelligence (IJCAI) 2023 에 게재 승인되어 8월에 발표될 예정입니다. 지식 증류(Knowledge distillation, KD)는 교사 모델의 지식을 학생 모델에 전달하여, 학생 모델의 성능을 향상시키는 방법이다. 소프트맥스 분포 및 네트워크 중간 특징 매칭 기반 지식 증류 방법은 다양한 작업에서 성능 향상을 보였지만, 학생 모델의 제한된 모델 용량으로 인해 일부분의 성능 개선만 가능하다. 본 연구에서는 학생 모델의 한계를 해결하기 위해 새로운 유연한 지식 증류 프레임워크, Attentive logit을 사용한 Integrating Matched Feature (IMF)를 제안한다. 본 방법은 중간 특징 증류기(IFD)를 도입하여 교사 모델의 지식을 직접 학생 모델의 가지 네트워크로 증류함으로써 학생 모델의 전반적인 성능을 향상시킨다. 여러 가지 네트워크는 Attentive Logit에 의해 선생 모델의 직접적인 증류하에 효과적으로 결합된다. 본 방법은 학생 모델의 일부 블록과 IFD를 사용하여 본래의 학생 네트워크와 동일하거나 적은 수의 파라미터로 추론하며, 다양한 데이터셋에서 다른 최신 방법론들보다 동일한 파라미터 및 연산량 하에 높은 성능 향상을 보인다. Knowledge distillation (KD) is an effective method for transferring the knowledge of a teacher model to a student model, that aims to improve the latter's performance efficiently. Although generic knowledge distillation methods such as softmax representation distillation and intermediate feature matching have demonstrated improvements with various tasks, only marginal improvements are shown in student networks due to their limited model capacity. In this work, to address the student model's limitation, we propose a novel flexible KD framework, Integrating Matched Features using Attentive Logit in Knowledge Distillation (IMF). Our approach introduces an intermediate feature distiller (IFD) to improve the overall performance of the student model by directly distilling the teacher's knowledge into branches of student models. The generated output of IFD, which is trained by the teacher model, is effectively combined by attentive logit. We use only a few blocks of the student and the trained IFD during inference, requiring an equal or less number of parameters. Through extensive experiments, we demonstrate that IMF consistently outperforms other state-of-the-art methods with a large margin over the various datasets in different tasks without extra computation.
-
- 작성일 2023-05-04
- 조회수 1461
-
- [연구] 우홍욱 교수 연구실(CSI연구실), ICML 2023 논문 게재 승인
- CSI연구실 (지도교수: 우홍욱)의 논문이 인공지능 분야 우수학회인 ICML 2023 (Fortieth International Conference on Machine Learning) 에 게재 승인 (Accept) 되었습니다. 논문은 23년 7월 미국 하와이에서 발표될 예정입니다. 논문 “One-shot Imitation in a Non-Stationary Environment via Multi-Modal Skill” 은 소프트웨어학과 신상우 (석사과정), 이대희 (석박사통합과정), 유민종 (석박사통합과정), 김우경 (박사과정) 연구원이 저자로 참여했으며, 멀티 모달 데이터를 활용하여 한번의 시연에 의해 신규 태스크를 파악하고, 동적 특성이 다른 환경에서 신속하게 적응하여 태스크를 수행하는 로봇 에이전트 학습 기법을 제안합니다. CSI 연구실은 머신러닝, 강화학습, 자기지도학습을 활용하여 네트워크, 클라우드 시스템 최적화 연구와 로봇, 드론 자율주행 연구 등을 수행하고 있습니다. 이번 ICML 2023 논문의 연구는 사람중심인공지능 핵심원천기술사업 (IITP), 한국연구재단 개인기초사업 (NRF) 지원으로 진행 중 입니다. 우홍욱 | hwoo@skku.edu | CSI Lab | https://sites.google.com/view/csi-agent-group
-
- 작성일 2023-05-02
- 조회수 1528
-
- [연구] 이상원 교수 연구실 (이보현 석사과정) VLDB 2023 논문 게재 승인
- VLDB 연구실 (지도교수: 이상원) 이보현 석사과정, 안미진 박사 (졸업생) “LRU-C: Parallelizing Database I/Os for Flash SSDs” 논문이 49th International Conference on Very Large Data Bases (VLDB)에 게재 승인되었습니다. VLDB는 데이터베이스 분야의 Top-tier 학술대회이며, 캐나다 밴쿠버에서 개최됩니다. [연구 내용] 기존의 데이터베이스 버퍼 관리자에는 read stall과 mutex 충돌로 인해 I/O 요청이 직렬화됩니다. 직렬화된 I/O는 스토리지와 CPU의 활용률을 낮게 만들어 트랜잭션 처리량과 지연 시간을 제한합니다. 이러한 피해는 비대칭 읽기-쓰기 속도와 풍부한 I/O 병렬성을 갖춘 플래시 SSD에서 두드러집니다. 본 연구에서는 데이터베이스 I/O를 병렬적으로 요청해 플래시 SSD의 병렬화를 활용하기 위해 데이터베이스 버퍼링에 대한 새로운 접근 방식인 LRU-C 방법을 제안합니다. LRU list에서 가장 최근에 사용되지 않는 clean 페이지를 가리키는 LRU-C 포인터를 도입합니다. 페이지 miss 시 LRU-C는 현재 LRU clean 페이지를 victim으로 선택하고 LRU list의 다음 LRU 치료 페이지로 포인터를 조정합니다. 이러한 방식으로 LRU-C는 read stall로 인한 I/O serialization를 방지할 수 있습니다. LRU-C 포인터는 I/O throughput을 향상시키기 위해 dynamic batch write 및 parallel LRU list manipulation이라는 두 가지 최적화 방안을 제안합니다. 전자는 한 번에 더 dirty한 페이지를 flush할 수 있는 반면, 후자는 두 개의 뮤텍스로 인해 발생하는 I/O 직렬화를 완화합니다. 플래시 SSD에서 MySQL 기반 LRU-C 프로토타입을 사용하여 OLTP 워크로드를 실행한 결과, Vanilla MySQL 및 최첨단 WAR 솔루션에 비해 트랜잭션 처리량이 각각 3배 및 1.5배 향상되고 테일 latency도 대폭 감소하는 것을 확인하였습니다. LRU-C는 hit ratio를 약간 떨어뜨리나 I/O 처리량이 증가하기 때문에 hit ratio가 감소되는 것을 훨씬 상쇄합니다.
-
- 작성일 2023-04-28
- 조회수 1570
-
- [연구] 김유성 교수 연구실 (신원철 석사과정) IJICAI 2023 논문 게재 승인
- Computer Systems & Intelligence 연구실 (지도교수: 김유성) 신원철 석사과정 “Guide to Control: Offline Hierarchical Reinforcement Learning using Subgoal Generation for Long-Horizon and Complex Tasks” 논문이 인공지능 분야 최우수 학회 (BK IF=4) International Joint Conferences on Artificial Intelligence (IJCAI) 2023 에 게재 승인되었습니다. 강화학습은 주어진 환경과 상호작용하며 보상을 최대화하는 행동 정책을 스스로 배울 수 있는 만큼 자율주행, 공정 최적화, 로봇 모션 제어 등 많은 분야에서 활용될 수 있습니다. 그러나 비용 및 안전성 이슈가 발생할 수 있는 만큼 실제 환경에 바로 적용하기에는 어려움이 있습니다. 최근 환경과 상호작용 없이 기존의 운용되었던 로그 데이터만으로 학습이 가능한 '오프라인 강화학습' 기법이 큰 주목을 받고 있습니다. 초기 연구 단계인만큼 임무 과정이 길고 보상이 성공/실패로만 주어지는 환경에서는 학습이 어려운 한계가 있습니다. 본 연구에서는 길고 보상이 드문 임무를 보다 효과적으로 배울 수 있게 단계별 목표 (sub-goal) 를 생성하고 각 sub-goal 로 도달하는 계층적 오프라인 강화학습 기법을 제안합니다. 온라인 검증이 불가한 학습 조건에서 생성한 sub-goal 이 도달 가능함을 보장할 수 있어야 합니다. 이를 위해 비지도 방식으로 latent sub-goal prior 모델을 사전 학습 후 해당 prior 모델을 기반으로 도달 가능한 sub-goal 생성 모델을 설계하였습니다. 제안한 기법은 '4족 로봇 네비게이션', '로봇 팔 움직임 제어', 및 '키친 로봇 환경' 에서 기존 관련 연구들을 크게 상회하는 성능을 보여주었습니다. 김유성 | yskim525@skku.edu | CSI Lab (Computer Systems and Intelligence Lab) | https://csi-skku.github.io
-
- 작성일 2023-04-24
- 조회수 1169
-
- [연구] 허재필 교수 연구실, CVPR 2023 논문 3편 게재 승인
- 비주얼컴퓨팅연구실(지도교수: 허재필)의 논문 3편이 컴퓨터 비전 및 인공지능 분야의 Top-tier 학술대회인 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2023에 게재 승인되었습니다. 논문 #1: “Disentangled Representation Learning for Unsupervised Neural Quantization” (인공지능학과 박사과정 노해찬, 인공지능학과 박사과정 현상익, 인공지능학과 박사과정 정우진) 논문 #2: "Query-Dependent Video Representation for Moment Retrieval and Highlight Detection" (인공지능학과 박사과정 문원준*, 인공지능학과 박사과정 현상익*) (* 공동1저자) 논문 #3: “Leveraging Hidden Positives for Unsupervised Semantic Segmentation” (인공지능학과 석박통합과정 성현석, 인공지능학과 박사과정 문원준, 인공지능학과 박사과정 이수빈) “Disentangled Representation Learning for Unsupervised Neural Quantization”에서는 비지도 양자화(unsupervised neural quantization)모델에서 역색인 구조(inverted file system)의 차벡터 인코딩(residual vector encoding)을 적용할 수 없다는 문제를 확인하였으며, 이를 해결하기 위해 새로운 네트워크 모듈을 제안하였습니다. 역색인 구조의 군집 센터(cluster center)의 정보를 네트워크의 잠재공간(latent space)에서 분리(disentangle)하여 양자화 코드북(quantization codebook)에 차벡터에 해당하는 정보만이 담기도록 설계하였습니다. 본 연구에서 제안된 네트워크는 비지도 양자화 분야의 기존 방법들을 크게 상회하는 성능을 달성하였습니다. "Query-Dependent Video Representation for Moment Retrieval and Highlight Detection " 논문에서는 비디오에서 사용자가 원하는 부분을 요약하고, 하이라이트 영상을 취득하는 문제를 다루고 있습니다. 구체적으로, 사용자가 원하는 부분은 문자 즉 텍스트로 입력을 받게 되는데 기존 최신 모델 구조인 트랜스포머 구조를 사용하는 논문들에서는 텍스트의 중요성을 크게 다루지 않고 있다는 문제를 제기하였습니다. 이러한 문제를 해결하기 위해, 해당 논문에서는 크게 세 가지 방법을 제안하고 있습니다. 먼저, cross-attention 구조를 인코딩 앞 단에 도입하여 비디오 추출 과정에서 텍스트 정보가 미치는 영향을 키워주었고, 텍스트와 비디오 사이에 연관성을 더 잘 학습하기 위해 거짓 텍스트-비디오 페어를 추가적으로 학습하였습니다. 또한, 모든 텍스트-비디오 페어는 각기 다른 정보를 다루고 있기에 하이라이트를 예측하는 예측기를 주어진 입력에 따라 변화하여 입력-의존적인 예측기를 사용하고자 하였습니다. 총 세 가지 데이터셋을 사용하여 실험하였고, 사용자 요청에 알맞은 영상을 추출하는 것과 하이라이트를 추출하는 두 가지 문제에서 모두 일관된 성능 향상을 가져오는 것을 확인하였습니다. “Leveraging Hidden Positives for Unsupervised Semantic Segmentation” 논문에서는 Unsupervised Semantic Segmentation를 위해 숨겨진 양성 샘플(hidden positive)을 찾아내 학습에 활용하는 새로운 방법을 제시하였습니다. 클래스 정보가 주어지지 않는 학습 상황에서 활용할 수 있을 만한 양성 샘플을 Global Hidden Positive(GHP)와 Local Hidden Positive(LHP)라는 두 가지 유형으로 정의하고, 이를 이용한 contrastive loss 설계와 그래디언트 전파(gradient propagation) 학습 전략으로 풍부한 의미 정보를 지역적 일관성을 유지하며 학습하였습니다. 이와 더불어 pretrained Vision Transformer(ViT)가 task-agnostic하다는 문제를 지적하여, 학습이 진행됨에 따라 좋은 quality를 가지게 되는 task-specific한 semantic information을 GHP를 정의하기 위한 추가적인 정보로 활용하였습니다. 제안된 기술은 Unsupervised Semantic Segmentation 분야에서 높은 성능을 달성하였습니다. [논문 #1 정보] Disentangled Representation Learning for Unsupervised Neural Quantization Haechan Noh, Sangeek Hyun, Woojin Jeong, Hanshin Lim, and Jae-Pil Heo IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2023 Abstract: The inverted index is a widely used data structure to avoid the infeasible exhaustive search. It accelerates retrieval significantly by splitting the database into multiple disjoint sets and restricts distance computation to a small fraction of the database. Moreover, it even improves search quality by allowing quantizers to exploit the compact distribution of residual vector space. However, we firstly point out a problem that an existing deep learning-based quantizer hardly benefits from the residual vector space, unlike conventional shallow quantizers. To cope with this problem, we introduce a novel disentangled representation learning for unsupervised neural quantization. Similar to the concept of residual vector space, the proposed method enables more compact latent space by disentangling information of the inverted index from the vectors. Experimental results on large-scale datasets confirm that our method outperforms the state-of-the-art retrieval systems by a large margin. [논문 #2 정보] Query-Dependent Video Representation for Moment Retrieval and Highlight Detection WonJun Moon, Sangeek Hyun, SangUk Park, Dongchan Park, and Jae-Pil Heo IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2023 Abstract: Recently, video moment retrieval and highlight detection~(MR/HD) are being spotlighted as the demand for video understanding is drastically increased. The key objective of MR/HD is to localize the moment and estimate clip-wise accordance level, i.e., saliency score, to the given text query. Although the recent transformer-based models brought some advances, we found that these methods do not fully exploit the information of a given query. For example, the relevance between text query and video contents is sometimes neglected when predicting the moment and its saliency. To tackle this issue, we introduce Query-Dependent DETR~(QD-DETR), a detection transformer tailored for MR/HD. As we observe the insignificant role of a given query in transformer architectures, our encoding module starts with cross-attention layers to explicitly inject the context of text query into video representation. Then, to enhance the model's capability of exploiting the query information, we manipulate the video-query pairs to produce irrelevant pairs. Such negative~(irrelevant) video-query pairs are trained to yield low saliency scores, which in turn, encourages the model to estimate precise accordance between query-video pairs. Lastly, we present an input-adaptive saliency predictor which adaptively defines the criterion of saliency scores for the given video-query pairs. Our extensive studies verify the importance of building the query-dependent representation for MR/HD. Specifically, QD-DETR outperforms state-of-the-art methods on QVHighlights, TVSum, and Charades-STA datasets. [논문 #3 정보] Leveraging Hidden Positives for Unsupervised Semantic Segmentation Hyun Seok Seong, WonJun Moon, SuBeen Lee, and Jae-Pil Heo IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2023 Abstract Dramatic demand for manpower to label pixel-level annotations triggered the advent of unsupervised semantic segmentation. Although the recent work employing the vision transformer (ViT) backbone shows exceptional performance, there is still a lack of consideration for task-specific training guidance and local semantic consistency. To tackle these issues, we leverage contrastive learning by excavating hidden positives to learn rich semantic relationships and ensure semantic consistency in local regions. Specifically, we first discover two types of global hidden positives, task-agnostic and task-specific ones for each anchor based on the feature similarities defined by a fixed pre-trained backbone and a segmentation head-in-training, respectively. A gradual increase in the contribution of the latter induces the model to capture task-specific semantic features. In addition, we introduce a gradient propagation strategy to learn semantic consistency between adjacent patches, under the inherent premise that nearby patches are highly likely to possess the same semantics. Specifically, we add the loss propagating to local hidden positives, semantically similar nearby patches, in proportion to the predefined similarity scores. With these training schemes, our proposed method achieves new state-of-the-art (SOTA) results in COCO-stuff, Cityscapes, and Potsdam-3 datasets. 허재필 | jaepilheo@skku.edu | 비주얼컴퓨팅 Lab | https://sites.google.com/site/vclabskku/
-
- 작성일 2023-04-24
- 조회수 1215
-
- [연구] 우사이먼성일 교수 연구실(DASH Lab) 2023 ACM SAC Best Paper 수상
- 우사이먼성일 교수 연구실(DASH Lab) 2023 ACM SAC Best Paper 수상 우사이먼성일 교수 연구실 (DASH Lab)의 김정호 (인공지능학과 석사 졸업), 김태준 (소프트웨어학과 융합보안트랙 석사과정) 학생들과 강북삼성병원 혈액종양내과 이윤규 교수, 영상의학과 함수연 교수의 “MGCMA: Multi-scale Generator with Channel-wise Mask Attention to generate Synthetic Contrast-enhanced Chest Computed Tomography” 논문이 The 38th ACM/SIGAPP Symposium on Applied Computing (SAC) 2023에서 Best Paper로 선정되었습니다. 일반적으로 CT촬영시 사용되는 조영제는 혈관의 대조도를 높여 조직이나 혈관의 병변을 명확하게 구별해 내는데 도움을 주는 의약품으로 사용됩니다. 하지만 신체에 투여되는 약물이기 때문에 과민반응 또는 신독성 부작용, 갑상성중독증, 폐부종, 혈전 등의 부작용을 유발할 수 있습니다. 이에 따라 본 연구에서는 CT 조영제 없이 촬영된 CT스캔 이미지로부터, 조영제를 투여한 CT스캔이미지를 생성하는 인공지능 네트워크인 Multi-scale Generator with Channel-wise Mask Attention (MGCMA)를 제안합니다. 본 연구에서 제안된 MGCMA 네트워크는 생성 네트워크인 Generative Adversarial Network (GAN)에 다중 스케일 특징을 고려하는 모듈을 접목시킴으로써 복잡한 의료 CT 이미지의 혈관의 대비를 효과적으로 증강시킬 수 있습니다. 또한, CT 조영증강 전 이미지와 증강 후 이미지의 쌍을 맞추는 것이 현실적으로 매우 어렵기 때문에, 쌍을 맞추지 않고도 image-to-image translation이 가능하도록 하는 CycleGAN Loss를 사용하여 효율적인 학습 파이프라인을 구성하였습니다. 본 모델을 학습 및 평가하기 위해 강북삼성병원으로부터 총 76,486장의 조영증강 전 이미지와 67,640장의 조영증강 후 이미지를 제공받았으며, PSNR, SSIM, MS-SSIM, FID, LPIPS의 5가지 평가 지표 사용하였고, 모든 지표에서 최신 모델의 성능을 능가하였습니다. 논문명: MGCMA: Multi-scale Generator with Channel-wise Mask Attention to generate Synthetic Contrast-enhanced Chest Computed Tomography 초록: Medical images, including computed tomography (CT) assist doctors and physicians in diagnosing anatomic structures and various internal pathologies. In CT, intravenous contrast media is often applied, which are chemicals developed to aid in the characterization of pathology by enhancing the capabilities of an imaging modality to differentiate between different biological tissues. Especially, with the use of contrast media, thorough examinations of the patients can be possible. However, contrast media can have severe adverse and side effects such as hypersensitive reaction to generalized seizures. Yet, without contrast media, it is difficult to diagnose patients that have disorders in the internal organs. With the help of DNN models, especially generative adversarial network (GAN), contrast-enhanced CT (CECT) images can be synthetically generated from non-contrast CT (NCCT) images. GANs or autoencoder-based models have been proposed to generate contrastenhanced CT images; however, the synthesized image does not fully reflect and have crucial spots where contrast has not been synthesized. Thus, in order to enhance the quality of the CECT image, we propose MGCMA, a multi-scale generator with a channel-wise mask attention module for generating synthetic CECT images from NCCT images. Our extensive experiments demonstrate that our model outperforms other baseline models in various metrics such as SSIM and LPIPS. Also, generated images from our approach achieve plausible outcomes from the domain experts’ (e.g., physicians and radiologists) evaluations. <그림 1. 최신 모델과의 정성적/정량적 성능 비교> <그림 2. Best Paper Award> 우사이먼성일 | swoo@skku.edu | 데이터기반 융합 보안 (DASH) Lab | http://dash.skku.edu/
-
- 작성일 2023-04-24
- 조회수 930
-
- [연구] 김재광 교수 연구실(main Lab), SIGIR 2023 국제 학술 대회 논문 채택
- main Lab. (지도교수: 김재광)의 논문 “How Important is Periodical Model update in Recommender System?” 이 세계 최고 권위 정보검색(Information Retrieval) 학회인 SIGIR 2023 (The 46th International ACM SIGIR Conference on Research and Development in Information Retrieval), the Perspective paper track에 채택되었습니다. 논문은 23년 7월 대만 타이페이에서 발표될 예정입니다. 본 논문은 카카오 추천팀과 협력한 연구로 추천시스템에서 주기적인 모델 업데이트의 중요성에 대한 온/오프라인 분석을 하여 특정 관점에서 의미있는 결과들을 도출하였습니다. 본 연구에는 성균관대학교 전기전자컴퓨터공학과의 석사과정 이동준 학생이 공동저자로 참여하였고, 김재광 교수가 교신저자로 참여하였습니다. [논문] H. Lee, S. Yoo, D. Lee, and J. Kim, “How Important is Periodical Model update in Recommender System?,” In Proceedings of 46th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR 2023), July 2023. [Abstract] In real-world recommender model deployments, the models are typically retrained and deployed repeatedly. It is the rule-of-thumb to periodically retrain recommender models to capture up-to-date user behavior and item trends. However, the harm caused by delayed model updates has not been investigated extensively yet. in this perspective paper, we formulate the delayed model update problem and quantitatively demonstrate the delayed model update actually harms the model performance by increasing the number of cold users and cold items increase and decreasing overall model performances. These effects vary across different domains having different characteristics. Upon these findings, we further argue that although the delayed model update has negative effects on online recommender model deployment, yet it has not gathered enough attention from research communities. We argue our verification of the relationship between the model update cycle and model performance calls for further research such as faster model training, and more efficient data pipelines to keep the model more up-to-date with the latest user behaviors and item trends.
-
- 작성일 2023-04-24
- 조회수 915