-
- [연구] SecAI 연구실(지도교수: 구형준), IEEE Symposium on Security and Privacy 2024 논문 게재 승인
- SecAI 연구실 (지도교수: 구형준)과 고려대학교 김휘강 교수 연구실에서 공동연구한 논문이 컴퓨터 보안 분야에서 최우수 학술대회(IF=4)인 IEEE Symposium on Security and Privacy 2024에 게재 승인되었습니다! 퍼징은 랜덤으로 입력값을 생성해 소프트웨어가 의도하지 않은 행위를 하는지 확인해서 버그를 찾는 기술입니다. 특히 보안 취약점을 찾는데 자주 활용되고 있는데, 마이크로소프트와 구글같은 회사에서도 퍼징을 활용해 자사의 제품을 테스트합니다. 버그 또는 취약점을 유발하는 입력값을 통해 근본 원인을 분석 (root cause analysis)하는데, 크래시 기반의 통계적 디버깅을 이용해 자동화하는 방식을 종종 사용합니다. 이 논문에서는 완화된 조건 하에 상태변이 (under-constrained state mutation)라는 새로운 기법을 소개하고, 기존 방식에 비해 평균 30배 이상 더 적은 메모리로 평균 4배 이상 더 높은 성능을 낼 수 있는 Benzene이라는 시스템을 설계하고 구현했습니다. Abstract. Fuzzing has demonstrated great success in bug discovery and plays a crucial role in software testing today. Despite the increasing popularity of fuzzing, automated root cause analysis (RCA) has drawn less attention. One of the recent advances in RCA is crash-based statistical debugging, which leverages the behavioral differences in program execution between crash-triggered and non-crashing inputs. Hence, obtaining non-crashing behaviors close to the original crash is crucial but challenging with previous approaches (e.g., fuzzing). In this paper, we present BENZENE, a practical end-to-end RCA system that facilitates a fully automated crash diagnosis. To this end, we introduce a novel technique, called under-constrained state mutation, that generates both crashing and non-crashing behaviors for effective and efficient RCA. We design and implement the BENZENE prototype, and evaluate it with 60 vulnerabilities in the wild. Our empirical results demonstrate that BENZENE not only surpasses in performance (i.e., root cause ranking), but also achieves superior results in both speed (4.6 times faster) and memory footprint (31.4 times less) on average than prior approaches.
-
- 작성일 2023-07-18
- 조회수 1828
-
- [연구] 이진규 교수 연구실(실시간 컴퓨팅 연구실, RTCL@SKKU) ACM Mobisys 2023 논문 게재 승인
- 실시간 컴퓨팅 연구실(지도교수: 이진규)에서 작성한 논문이 ACM Mobisys 2023 (the 21st ACM International Conference on Mobile Systems, Applications, and Services)에 게재 승인되었습니다. ACM Mobisys는 매년 40편 내외의 논문만이 발표되는 Mobile System 분야의 최우수 국제 학술대회이며, 올해는 2023년 6월 18일~22일 핀란드 헬싱키에서 총 41편의 논문이 발표될 예정입니다. ACM Mobisys 2023 홈페이지 https://www.sigmobile.org/mobisys/2023/ 실시간 컴퓨팅 연구실 홈페이지 https://rtclskku.github.io/website/ - 논문제목: MixMax: Leveraging Heterogeneous Batteries to Alleviate Low Battery Experience for Mobile Users - RTCL@SKKU 연구실 저자: 곽재헌 석사졸업생(제1저자), 이진규 교수(공동 교신저자) - 연구주제: 서로 다른 종류의 배터리를 활용하여 주어진 부피/무게 등의 제약하에서 기존 모바일 배터리 성능을 뛰어 넘도록 하는 시스템 설계 및 전력사용 스케줄링 기법 - 공동연구 기관: KAIST, 숭실대 - Teaser: https://youtu.be/LPXcpKlQxa0 - Abstract: Despite the physical advance of an existing single-cell battery system, mobile users are still suffering from low battery anxiety. With a careful analysis of users’ battery usage behavior collected for 19,855 hours, we propose a heterogeneous battery system, MixMax, consisting of three complementary battery types tailored to minimizing the low battery time. While composing a heterogeneous battery system opens up a chance to simultaneously improve the capacity and the charging speed, one must face non-trivial challenges to determine the ratio of enclosed batteries and charge/discharge policies during the run-time. They are highly dependent on each other, which entails almost infinite candidates for the choice. MixMax gracefully unwinds the dependencies as it formulates the decision-making problem into an optimization problem and decomposes it into multiple sub-problems instead. To evaluate MixMax, we fabricate coin-cell batteries and experiment with them to model an accurate battery emulator which sophisticatedly reproduces the dynamics of battery systems. Our experimental results demonstrate that MixMax can reduce the low battery time by up to 24.6% without compromising capacity, volume, weight, and more importantly, users’ battery usage behavior. In addition, we prototype MixMax on a smartphone, presenting the practicality of MixMax on mobile systems. 이진규 | jinkyu.lee@skku.edu | 실시간컴퓨팅 Lab. | https://rtclskku.github.io/website/
-
- 작성일 2023-06-07
- 조회수 1930
-
- [연구] 황성재 교수 연구실(소프트웨어 보안 연구실, SoftSec@SKKU) ESEC/FSE 2023 논문 게제 승인
- 황성재 교수 연구실(소프트웨어 보안 연구실, SoftSec@SKKU) ESEC/FSE 2023 논문 게제 승인 소프트웨어 보안 연구실 (지도교수: 황성재)에서 작성한 논문이 소프트웨어 공학 분야의 최상위 국제 학술대회인 FSE 2023 (30th ACM Joint European Software Engineering Conference and Symposium on the Foundations of Software Engineering)에 게재 승인되었습니다. 본 논문 “EtherDiffer: Differential Testing on RPC Services of Ethereum Nodes” 은 2023년 12월 미국 샌프란시스코에서 발표될 예정입니다. [논문 정보] - EtherDiffer: Differential Testing on RPC Services of Ethereum Nodes - Shinhae Kim, and Sungjae Hwang - 30th ACM Joint European Software Engineering Conference and Symposium on the Foundations of Software Engineering (ESEC/FSE 2023) [논문 요약] 블록체인 노드와 DApps과의 통신을 위한 하나의 RPC 스펙이 존재합니다. 스펙은 하나지만, 블록체인 노드의 구현체는 다양합니다. Go 언어로 작성된 Geth 노드, C++로 작성된 Erigon 노드, C#으로 작성된 Nethermind 노드, Java로 작성된 Besu 노드가 존재합니다. 본 연구는 이렇게 다양한 언어로 개발된 노드들이 하나의 스펙을 잘 따르고 있을까? 혹시 동일한 RPC 명령에 대해 다르게 동작하지 않을까? 노드가 다르게 동작한다면 어떤 문제가 발생할까? 이런 궁금증을 답하기 위해 이더리움 노드의 구현체를 검증하는 차분 테스팅(Differential Testing) 기술을 개발하였습니다. 본 검증 기술을 통해, 48가지의 노드 구현체의 차이점 및 11개의 버그를 자동으로 찾는 결과를 만들어 냈습니다.
-
- 작성일 2023-05-30
- 조회수 1647
-
- [연구] 이성길 교수 컴퓨터그래픽스연구실(CGLab), ACM SIGGRAPH 2023 논문 게재 승인
- 컴퓨터그래픽스연구실(CGLab; 지도교수 이성길) 김장훈 석사과정(소프트웨어학과)의 논문 "Potentially Visible Hidden-Volume Rendering for Multi-View Warping"이 ACM SIGGRAPH 2023에 게재 승인(Accept)되었고, 2023년 8월 미국 LA에서 발표될 예정입니다. ACM SIGGRAPH은 컴퓨터그래픽스 분야 최우수 학회이며, 본 논문은 Journal Track과 Conference Track 중 Journal Track에 게재 승인되었고, ACM Trasactions on Graphics, Volume 42, No. 4의 special issue에 7월 출간될 예정입니다. 본 논문은 Real-Time GPU Rendering에서 유효한 가시도(visibility) 검출에 관한 내용으로, 동일한 픽셀 위치에서 시점이 달라질 때의 새로운 view를 생성하기 위해 필요한 정보만을 효과적으로 modeling하고 추출하는 기하적인 GPU 알고리즘을 제안합니다. 이러한 가시도 model인 PVHV(Potentially Visible Hidden Volume)에 기반하여 새로운 다수 시점의 이미지를 효율적으로 합성할 수 있음을 보이는 내용입니다. 이러한 시점 합성(Novel View Synthesis)은 최근 Compute Vision에서도 Neural Radiance Fields (NeRFs)를 필두로 활발히 연구가 되고 있는 연구 주제입니다. Abstract -------- This paper presents the model and rendering algorithm of Potentially Visible Hidden Volumes (PVHVs) for multi-view image warping. PVHVs are 3D volumes that are occluded at a known source view, but potentially visible at novel views. Given a bound of novel views, we define PVHVs using the edges of foreground fragments from the known view and the bound of novel views. PVHVs can be used to batch-test the visibilities of source fragments without iterating individual novel views in multi-fragment rendering, and thereby, cull redundant fragments prior to warping. We realize the model of PVHVs in Depth Peeling (DP). Our Effective Depth Peeling (EDP) can reduce the number of completely hidden fragments, capture important fragments early, and reduce warping cost. We demonstrate the benefit of our PVHVs and EDP in terms of memory, quality, and performance in multi-view warping.
-
- 작성일 2023-05-25
- 조회수 1821
-
- [연구] 박호건 교수 LearnData 연구실, 지식 추론 연구 SIGKDD 2023 논문 게재 승인 (석사과정: 김수경, 김가영)
- 박호건 교수 연구실 지식 추론 연구 SIGKDD 2023 논문 게재 승인 (석사과정: 김수경, 김가영) LearnData Lab(기계학습/데이터마이닝) 연구실(지도교수: 박호건, https://learndatalab.github.io)의 김수경(공동 1저자), 김가영(공동 1저자), 정희수 학생(석사과정)과 박호건 교수(교신저자)가 제출한 “Exploiting Relation-aware Attribute Representation Learning in Knowledge Graph Embedding for Numerical Reasoning” 논문이 인공지능 분야 최우수 학회 ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD) 2023 (https://kdd.org/kdd2023/) (BK IF=4)의Research Track에서 Full Paper로 게재 승인되었고, 2023년 8월 미국 캘리포니아에서 발표될 예정입니다. 본 논문은 지식 정보를 활용한 수치 추론에 대한 주제로 작성되었습니다. 수치 추론 작업은 지식 그래프에 있는 기존의 관계 정보와 수치 속성(예: 높이)을 활용하여, 잘 알려져 있지 않은 두 가지 엔티티(Mountain A와 Mountain B)를 비교하고 다양한 속성에 대한 새로운 사실(예: A가 더 높음)을 알아 내는 것(추론)하는 것을 목표로 합니다. 그러나 기존의 대부분의 방법은 새로운 속성 인코더를 도입하거나 추가적인 손실을 감수하고 수치 값을 예측해야 하는 한계가 있으며, 수치 속성이 드물게 존재하는 경우 성능이 크게 떨어집니다. 본 논문에서는 지식 그래프에 대한 수치 추론을 강화하는 새로운 그래프 임베딩 방법인 RAKGE를 제안합니다. 제안된 방법에는 관계와 해당 수치 속성 간의 연관성을 활용할 수 있는 새로운 형태의 Representation Learning이 포함됩니다. 또한, 강력한 자기 지도 학습 방법을 도입하여 보이지 않는 긍정 및 부정 예시를 생성함으로써 숫자 속성이 희박한 경우 제안 방법의 예측을 더욱 신뢰할 수 있도록 합니다. Spotify, 개인 신용 정보, 도시 정보 데이터셋 등 세 가지 대규모 데이터 세트에 대해 평가한 결과, 우리가 제안한 모델은 최고 경쟁사 대비 최대 65.1%의 히트율(Hits@1)과 최대 52.6%의 MRR을 달성하며 다른 최신 경쟁 알고리즘보다 뛰어난 성능을 보였습니다. [논문 정보] Exploiting Relation-aware Attribute Representation Learning in Knowledge Graph Embedding for Numerical Reasoning Sookyung Kim+, Gayoung Kim+, Ko Keun Kim, Suchan Park, Heesoo Jung, Hogun Park* ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD) 2023. Full Paper (Research Track). [+ Means Equal Contribution.] [Abstract] Numerical reasoning is one of the essential tasks to support machine learning applications such as recommendation and information retrieval. The reasoning task aims to compare two items and infer the new facts (e.g., is taller than) by leveraging existing relational information and numerical attributes (e.g., the height of an entity) in knowledge graphs. However, most existing methods are limited to introducing new attribute encoders or additional losses to predict the numeric values and are not robust when numerical attributes are sparsely available. In this paper, we propose a novel graph embedding method named RAKGE, which enhances numerical reasoning on knowledge graphs. The proposed method includes relation-aware attribute representation learning, which can leverage the association between relations and their corresponding numerical attributes. Additionally, we introduce a robust self-supervised learning method to generate unseen positive and negative examples, thereby making our approach more reliable when numerical attributes are sparse. Evaluated on three real-world datasets, our proposed model outperforms state-of-the-art methods, achieving an improvement of up to 65.1% in Hits@1 and up to 52.6% in MRR compared to the best competitor.
-
- 작성일 2023-05-23
- 조회수 1950
-
- [연구] 이지형 교수 연구실, ACL 2023 논문 3편 게재 승인
- 정보 및 지능 시스템 연구실(지도교수: 이지형)의 논문 3편이 세계 최고 권위의 자연어처리 학술대회 (BK IF=4) “The 61st Annual Meeting of the Association for Computational Linguistics (ACL’23)”에 게재 승인되었습니다. 논문 #1: “DIP: Dead code Insertion based Black-box Attack for Programming Language Model”, ACL 2023 (인공지능학과 석박통합과정 나철원, 소프트웨어학과 박사과정 최윤석) 논문 #2: “BLOCSUM: Block Scope-based Source Code Summarization via Shared Block Representation”, Findings of ACL 2023 (소프트웨어학과 박사과정 최윤석, 인공지능학과 석사과정 김효준) 논문 #3: “CodePrompt: Task-Agnostic Prefix Tuning for Program and Language Generation”, Findings of ACL 2023 (소프트웨어학과 박사과정 최윤석) (논문 #1) “DIP: Dead code Insertion based Black-box Attack for Programming Language Model” 논문에서는 소스코드를 처리하는 매우 큰 사전학습모델(Large-scale pre-trained models)에 대한 적대적 공격(Adversarial Attack) 방법을 제안합니다. 기존 공격방법인 변수명을 변경하는 Sampling 기반의 방법론은 매우 많은 시도와 낮은 공격 성공률로 비효율적이며, 특히 소스코드의 특징인 컴파일 가능성을 완전히 보존하지 못하는 문제를 제기하였습니다. 이를 해결하기 위해, 소스코드에 영향을 미치지 않는 Dead code를 삽입하는 방법론을 채택하였습니다. 언어를 처리하는 대부분의 사전학습 모델은 Attention mechanism을 갖는 트랜스포머 기반 구조이기 때문에, 적대적 공격의 효율성을 높이기 위하여 어텐션 점수(Attention score)를 활용합니다. 제안된 방법은 3가지 사전학습 모델에 각 3가지 데이터를 미세조정(fine-tuning)한 총 9가지 타겟 모델에 대하여 매우 우수한 공격 성능을 보입니다. [Abstract] Automatic processing of source code, such as code clone detection and software vulnerability detection, is very helpful to software engineers. Large pre-trained Programming Language (PL) models (such as CodeBERT, GraphCodeBERT, CodeT5, etc.), show very powerful performance on these tasks. However, these PL models are vulnerable to adversarial examples that are generated with slight perturbation. Unlike natural language, an adversarial example of code must be semantic-preserving and compilable. Due to the requirements, it is hard to directly apply the existing attack methods for natural language models. In this paper, we propose DIP (Dead code Insertion based Black-box Attack for Programming Language Model), a high-performance and efficient black-box attack method to generate adversarial examples using dead code insertion. We evaluate our proposed method on 9 victim downstream-task large code models. Our method outperforms the state-of-the-art black-box attack in both attack efficiency and attack quality, while generated adversarial examples are compiled preserving semantic functionality. (논문 #2) “BLOCSUM: Block Scope-based Source Code Summarization via Shared Block Representation” 논문에서는 소스코드를 개발자가 한눈에 이해할 수 있는 주석 형태의 자연어로 요약해주는 방법을 제안합니다. 양질의 요약문을 생성하기 위하여, 소스코드 블록의 다양한 구조를 표현함으로써 블록 범위 정보를 활용하는 공유 블록 표현(shared block representation)을 사용합니다. 소스 코드의 기본 구조 요소인 코드 블록을 활용하여 두 가지 방법을 설계했습니다. 첫 번째 방법인 공유 블록 위치 임베딩(position embedding)은 코드 블록의 구조를 효과적으로 나타내고 코드와 AST 인코더 간의 상관관계를 합치는 데 사용됩니다. 또한, 소스 코드의 블록 및 전역 종속성과 같은 풍부한 정보를 학습하기 위해 간단하면서도 효과적인 AST 변형을 재구성했습니다. 실험 결과, 제안방안의 우수성을 입증하고 코드에서 블록 범위 정보의 중요성을 확인했습니다. [Abstract] Code summarization, which aims to automatically generate natural language descriptions from source code, has become an essential task in software development for better program understanding. Abstract Syntax Tree (AST), which represents the syntax structure of the source code, is helpful when utilized together with the sequence of code tokens to improve the quality of code summaries. Recent works on code summarization attempted to capture the sequential and structural information of the source code, but they considered less the property that source code consists of multiple code blocks. In this paper, we propose BLOCSUM, BLOck scope-based source Code SUMmarization via shared block representation that utilizes block-scope information by representing various structures of the code block. We propose a shared block position embedding to effectively represent the structure of code blocks and merge both code and AST. Furthermore, we develop variant ASTs to learn rich information such as block and global dependencies of the source code. To prove our approach, we perform experiments on two real-world datasets, the Java dataset and the Python dataset. We demonstrate the effectiveness of BLOCSUM through various experiments, including ablation studies and a human evaluation. (논문 #3) “CodePrompt: Task-Agnostic Prefix Tuning for Program and Language Generation” 연구에서는 프로그램 및 언어 생성 작업을 위한 작업에 구애받지 않는(Task-agnostic) 프롬프트 튜닝 방법인 CodePrompt를 제안합니다. CodePrompt는 프로그램 및 언어를 위한 사전학습모델(Pre-train Models)의 사전 훈련 및 미세 조정 사이의 간극을 메우기 위해 입력 종속 프롬프트 템플릿을 결합하고, 사전학습모델의 매개 변수(parameters)를 효율적으로 업데이트하기 위해 말뭉치 특정 접두사 튜닝을 사용합니다. 또한, 제한된 접두사 길이에 대한 보다 풍부한 접두사 단어 정보를 제공하기 위한 다중 단어 접두사 초기화 방법을 제안했습니다. 제안 방법은 전체 데이터와 저자원 환경 뿐만 아니라 cross-domain 환경에서도 3가지 프로그램 및 언어 생성 작업(Program and Language Generation)에서 효과적임을 입증했습니다. [Abstract] In order to solve the inefficient parameter update and storage issues of fine-tuning in Natural Language Generation (NLG) tasks, prompt-tuning methods have emerged as lightweight alternatives. Furthermore, efforts to reduce the gap between pre-training and fine-tuning have shown successful results in low resource settings. As large Pre-trained Language Models (PLMs) for Program and Language Generation (PLG) tasks are constantly being developed, prompt tuning methods are necessary for the tasks. However, due to the gap between pre-train and fine-tuning different from PLMs for natural language, a prompt tuning method that reflects the traits of PLM for program language is needed. In this paper, we propose a Task-Agnostic prompt tuning method for the PLG tasks, CodePrompt, that combines Input-Dependent Prompt Template (to bridge the gap between pre-training and fine-tuning of PLMs for program and language) and Corpus-Specific Prefix Tuning (to efficiently update the parameters of PLMs for program and language). Also, we propose a method to provide more rich prefix word information for limited prefix lengths. We prove that our method is effective in three PLG tasks, not only in the full-data setting, but also in the low-resource setting and cross domain setting.
-
- 작성일 2023-05-08
- 조회수 1666
-
- [연구] 우사이먼 교수 연구실, IJCAI 2023 논문 게재 승인
- DASH 연구실 (지도교수: 우사이먼) 김정호 (2023년 석사 졸업), 이한빈 (2022년 석사 졸업)의 “IMF: Integrating Matched Features using Attentive Logit in Knowledge Distillation” 논문이 인공지능 분야 최우수 학회 (BK IF=4) International Joint Conferences on Artificial Intelligence (IJCAI) 2023 에 게재 승인되어 8월에 발표될 예정입니다. 지식 증류(Knowledge distillation, KD)는 교사 모델의 지식을 학생 모델에 전달하여, 학생 모델의 성능을 향상시키는 방법이다. 소프트맥스 분포 및 네트워크 중간 특징 매칭 기반 지식 증류 방법은 다양한 작업에서 성능 향상을 보였지만, 학생 모델의 제한된 모델 용량으로 인해 일부분의 성능 개선만 가능하다. 본 연구에서는 학생 모델의 한계를 해결하기 위해 새로운 유연한 지식 증류 프레임워크, Attentive logit을 사용한 Integrating Matched Feature (IMF)를 제안한다. 본 방법은 중간 특징 증류기(IFD)를 도입하여 교사 모델의 지식을 직접 학생 모델의 가지 네트워크로 증류함으로써 학생 모델의 전반적인 성능을 향상시킨다. 여러 가지 네트워크는 Attentive Logit에 의해 선생 모델의 직접적인 증류하에 효과적으로 결합된다. 본 방법은 학생 모델의 일부 블록과 IFD를 사용하여 본래의 학생 네트워크와 동일하거나 적은 수의 파라미터로 추론하며, 다양한 데이터셋에서 다른 최신 방법론들보다 동일한 파라미터 및 연산량 하에 높은 성능 향상을 보인다. Knowledge distillation (KD) is an effective method for transferring the knowledge of a teacher model to a student model, that aims to improve the latter's performance efficiently. Although generic knowledge distillation methods such as softmax representation distillation and intermediate feature matching have demonstrated improvements with various tasks, only marginal improvements are shown in student networks due to their limited model capacity. In this work, to address the student model's limitation, we propose a novel flexible KD framework, Integrating Matched Features using Attentive Logit in Knowledge Distillation (IMF). Our approach introduces an intermediate feature distiller (IFD) to improve the overall performance of the student model by directly distilling the teacher's knowledge into branches of student models. The generated output of IFD, which is trained by the teacher model, is effectively combined by attentive logit. We use only a few blocks of the student and the trained IFD during inference, requiring an equal or less number of parameters. Through extensive experiments, we demonstrate that IMF consistently outperforms other state-of-the-art methods with a large margin over the various datasets in different tasks without extra computation.
-
- 작성일 2023-05-04
- 조회수 1508
-
- [연구] 우홍욱 교수 연구실(CSI연구실), ICML 2023 논문 게재 승인
- CSI연구실 (지도교수: 우홍욱)의 논문이 인공지능 분야 우수학회인 ICML 2023 (Fortieth International Conference on Machine Learning) 에 게재 승인 (Accept) 되었습니다. 논문은 23년 7월 미국 하와이에서 발표될 예정입니다. 논문 “One-shot Imitation in a Non-Stationary Environment via Multi-Modal Skill” 은 소프트웨어학과 신상우 (석사과정), 이대희 (석박사통합과정), 유민종 (석박사통합과정), 김우경 (박사과정) 연구원이 저자로 참여했으며, 멀티 모달 데이터를 활용하여 한번의 시연에 의해 신규 태스크를 파악하고, 동적 특성이 다른 환경에서 신속하게 적응하여 태스크를 수행하는 로봇 에이전트 학습 기법을 제안합니다. CSI 연구실은 머신러닝, 강화학습, 자기지도학습을 활용하여 네트워크, 클라우드 시스템 최적화 연구와 로봇, 드론 자율주행 연구 등을 수행하고 있습니다. 이번 ICML 2023 논문의 연구는 사람중심인공지능 핵심원천기술사업 (IITP), 한국연구재단 개인기초사업 (NRF) 지원으로 진행 중 입니다. 우홍욱 | hwoo@skku.edu | CSI Lab | https://sites.google.com/view/csi-agent-group
-
- 작성일 2023-05-02
- 조회수 1576
-
- [연구] 이상원 교수 연구실 (이보현 석사과정) VLDB 2023 논문 게재 승인
- VLDB 연구실 (지도교수: 이상원) 이보현 석사과정, 안미진 박사 (졸업생) “LRU-C: Parallelizing Database I/Os for Flash SSDs” 논문이 49th International Conference on Very Large Data Bases (VLDB)에 게재 승인되었습니다. VLDB는 데이터베이스 분야의 Top-tier 학술대회이며, 캐나다 밴쿠버에서 개최됩니다. [연구 내용] 기존의 데이터베이스 버퍼 관리자에는 read stall과 mutex 충돌로 인해 I/O 요청이 직렬화됩니다. 직렬화된 I/O는 스토리지와 CPU의 활용률을 낮게 만들어 트랜잭션 처리량과 지연 시간을 제한합니다. 이러한 피해는 비대칭 읽기-쓰기 속도와 풍부한 I/O 병렬성을 갖춘 플래시 SSD에서 두드러집니다. 본 연구에서는 데이터베이스 I/O를 병렬적으로 요청해 플래시 SSD의 병렬화를 활용하기 위해 데이터베이스 버퍼링에 대한 새로운 접근 방식인 LRU-C 방법을 제안합니다. LRU list에서 가장 최근에 사용되지 않는 clean 페이지를 가리키는 LRU-C 포인터를 도입합니다. 페이지 miss 시 LRU-C는 현재 LRU clean 페이지를 victim으로 선택하고 LRU list의 다음 LRU 치료 페이지로 포인터를 조정합니다. 이러한 방식으로 LRU-C는 read stall로 인한 I/O serialization를 방지할 수 있습니다. LRU-C 포인터는 I/O throughput을 향상시키기 위해 dynamic batch write 및 parallel LRU list manipulation이라는 두 가지 최적화 방안을 제안합니다. 전자는 한 번에 더 dirty한 페이지를 flush할 수 있는 반면, 후자는 두 개의 뮤텍스로 인해 발생하는 I/O 직렬화를 완화합니다. 플래시 SSD에서 MySQL 기반 LRU-C 프로토타입을 사용하여 OLTP 워크로드를 실행한 결과, Vanilla MySQL 및 최첨단 WAR 솔루션에 비해 트랜잭션 처리량이 각각 3배 및 1.5배 향상되고 테일 latency도 대폭 감소하는 것을 확인하였습니다. LRU-C는 hit ratio를 약간 떨어뜨리나 I/O 처리량이 증가하기 때문에 hit ratio가 감소되는 것을 훨씬 상쇄합니다.
-
- 작성일 2023-04-28
- 조회수 1618
-
- [연구] 김유성 교수 연구실 (신원철 석사과정) IJICAI 2023 논문 게재 승인
- Computer Systems & Intelligence 연구실 (지도교수: 김유성) 신원철 석사과정 “Guide to Control: Offline Hierarchical Reinforcement Learning using Subgoal Generation for Long-Horizon and Complex Tasks” 논문이 인공지능 분야 최우수 학회 (BK IF=4) International Joint Conferences on Artificial Intelligence (IJCAI) 2023 에 게재 승인되었습니다. 강화학습은 주어진 환경과 상호작용하며 보상을 최대화하는 행동 정책을 스스로 배울 수 있는 만큼 자율주행, 공정 최적화, 로봇 모션 제어 등 많은 분야에서 활용될 수 있습니다. 그러나 비용 및 안전성 이슈가 발생할 수 있는 만큼 실제 환경에 바로 적용하기에는 어려움이 있습니다. 최근 환경과 상호작용 없이 기존의 운용되었던 로그 데이터만으로 학습이 가능한 '오프라인 강화학습' 기법이 큰 주목을 받고 있습니다. 초기 연구 단계인만큼 임무 과정이 길고 보상이 성공/실패로만 주어지는 환경에서는 학습이 어려운 한계가 있습니다. 본 연구에서는 길고 보상이 드문 임무를 보다 효과적으로 배울 수 있게 단계별 목표 (sub-goal) 를 생성하고 각 sub-goal 로 도달하는 계층적 오프라인 강화학습 기법을 제안합니다. 온라인 검증이 불가한 학습 조건에서 생성한 sub-goal 이 도달 가능함을 보장할 수 있어야 합니다. 이를 위해 비지도 방식으로 latent sub-goal prior 모델을 사전 학습 후 해당 prior 모델을 기반으로 도달 가능한 sub-goal 생성 모델을 설계하였습니다. 제안한 기법은 '4족 로봇 네비게이션', '로봇 팔 움직임 제어', 및 '키친 로봇 환경' 에서 기존 관련 연구들을 크게 상회하는 성능을 보여주었습니다. 김유성 | yskim525@skku.edu | CSI Lab (Computer Systems and Intelligence Lab) | https://csi-skku.github.io
-
- 작성일 2023-04-24
- 조회수 1206