2023년 2월 「인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안」이 국회 상임위 법안심사소위를 통과하였으나, 더 이상 진행되지 않고 2024년 5월 말 제21대 국회 종료와 함께 자동 폐기되었다. 인공지능의 위험을 적절하게 규제하기에는 부족한 법안이라는 사회적 비판이 입법 무산의 원인이 되었다. 실제로 인공지능이 초래할 수 있는 안전에 대한 위협, 편향성 및 차별가능성, 프라이버시 침해, 불투명성 및 탈진실성 등의 위험에 대하여 사회적 우려가 확산되면서 유럽, 미국 등의 선진국을 중심으로인공지능에 대한 규제 움직임이 활발하다. 인공지능에 대한 규제의 경우, 초기에는 자율규제 차원에서연성규범을 활용하여 인공지능 윤리의 확보에 집중했으나, 점차 인공지능 관련 사업자에 대한 법적 규제를 부과하는 방식으로 변화하고 있다. 인공지능에 대한 법적 규제는 크게 3가지 방식으로 유형화 해볼 수 있다. 첫째는 인공지능에 관한 일반법률이 인공지능 기술 전반의 안전ㆍ윤리ㆍ신뢰 확보 목적에서 공통된 규제 내용을 마련하는 직접적 규제 방식이고, 둘째는 인공지능이 아닌 다른 분야에 관한 법률이 인공지능 기술의 개발과 활용 전반에 규제적 효과를 가져오는 간접적 규제 방식이며, 셋째는 개별영역을 규율하기 위한 법률이 해당 영역에서의 인공지능 활용을 규제하는 개별적 규제 방식이다. 제22대 국회 개원과 동시에 인공지능을 직접 규율하기 위한 법률이 계속해서 발의되고 있다. 인공지능 기술의 성장가능성과 지속가능성을 고려하여 개별 분야에서의 구체적 위험의 완화에 필요한 최소한의 규제를 도입하여야 한다. 국제규범 동향과 국내의 산업 생태계의 여건이나 거버넌스적인 현실을 고려하는 것도 반드시 필요하다. 따라서 직접적 규제 차원에서 인공지능에 대한 일반법률은 기술발전과 산업 활성화를 위해 자율규제를 촉진하는 방식으로 접근하는 것이 바람직하다. 다만, 최소한의투명성을 확보하고자 고위험영역 인공지능 사업자에 대하여 각종 정보의 공개를 의무화하는 수준의법적 규제는 필요하다. 개별 영역에서 인공지능 활용으로 인한 위험이 큰 경우에는 개별 법률에 특별하고 구체적인 규제 내용을 두는 개별적 규제 방식으로 규제하는 것이 바람직하다.
In February 2023, the “Bill for the Act on Promotion of the Artificial Intelligence Industry and the Establishment of Trust” was approved by the Bill Review Subcommittee of the National Assembly’s Standing Committee. However, the Bill did not progress further and was automatically discarded as the conclusion of the 21st National Assembly in late May 2024.
It was due to social criticism that the bill was insufficient to regulate AI risks. As social concerns about AI’s potential risks - such as safety threat, bias, discrimination, privacy infringements, opacity, and post-truth - grow, there is an increasing movement towards AI regulation, particularly in advanced regions such as the EU and the United States. Initially, AI regulation focused on securing AI ethics through soft law at the level of self-regulation. However, there has been a gradual shift towards imposing statutory regulation on AI-related operators. AI statutory regulation can be categorized into three main approaches. The first is a direct regulatory approach, where general legislation on AI governs common regulatory provisions to ensure the safety, ethics, and trust of AI technology as a whole. The second is an indirect regulatory approach, where legislation in other fields indirectly regulates the development and utilization of AI technology. The third is an individual regulatory approach, where legislation specific to certain sectors regulates the use of AI within those areas.
As soon as the 22nd National Assembly opens, several bills to directly regulate AI were proposed. When introducing statutory regulation of AI, it is crucial to implement the minimal necessary regulation to mitigate specific risks in individual fields, while considering the potential growth and sustainability of AI technology. It is also essential to take into account international regulatory trends, as well as the domestic industrial ecosystem and governance realities.
Therefore, from the perspective of direct regulation, it is desirable for general legislation of AI to promote self-regulation. This approach will further contribute to fostering technological advancement and industrial growth. However, to ensure a minimum level of transparency, it is necessary to impose statutory regulations that mandate the disclosure of various information by high-risk AI operators. In fields where the use of AI poses significant risks, it is advisable to adopt an individual regulatory approach with specialized and detailed provisions within the respective legislation.