<?xml version="1.0" encoding="UTF-8"?><rss version="2.0">
	<channel>
		<title>AI 신뢰성 얼라이언스</title>
		<link>https://aitrustalliance.ai</link>
		<description></description>
		
				<item>
			<title><![CDATA[AI 신뢰성∙보안 표준, 한국이 선도한다]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=56]]></link>
			<description><![CDATA[<ul>
<li>TTA가 <strong>AI 보안 표준화 전담 프로젝트그룹(PG507)</strong> 을 신설함</li>
<li>이 그룹은 <strong>AI 정보보호, 개인정보 보호, 보안성 평가, 생성형 AI 보안, 에이전틱 AI 보안</strong> 등을 중심으로 표준 개발을 추진할 예정임</li>
<li>AI 활용이 빠르게 확산되면서 <strong>사이버 범죄, 개인정보 침해, 모델 탈취, 프롬프트 인젝션, 적대적 공격</strong> 같은 새로운 보안 위협도 커지고 있음</li>
<li>이에 따라 국내외 법·규제를 반영한 <strong>AI 보안 표준 마련의 필요성</strong>이 커졌고, TTA가 이를 선도하겠다는 입장임</li>
<li>TTA는 이번 그룹 신설이 <strong>AI 산업 육성, 기술 신뢰성 확보, 국제표준 반영 기반 마련</strong>에 도움이 될 것으로 기대함</li>
<li>앞으로 <strong>표준-시험·인증-인력양성</strong>을 연계한 원스톱 지원도 강화하겠다고 밝힘</li>
</ul>
<p>[자세한 내용은 첨부된 기사를 참고하시기 바랍니다.]</p>
<p><a href="https://www.koit.co.kr/news/articleView.html?idxno=206486">https://www.koit.co.kr/news/articleView.html?idxno=206486</a></p>]]></description>
			<author><![CDATA[TTA]]></author>
			<pubDate>Tue, 31 Mar 2026 07:20:38 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=6"><![CDATA[뉴스레터]]></category>
		</item>
				<item>
			<title><![CDATA[인공지능 투명성 확보 가이드라인]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=54]]></link>
			<description><![CDATA[<p>「인공지능 투명성 확보 가이드라인」자료를 공유합니다.</p>]]></description>
			<author><![CDATA[TTA]]></author>
			<pubDate>Wed, 11 Mar 2026 01:31:25 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=8"><![CDATA[정책자료]]></category>
		</item>
				<item>
			<title><![CDATA[고영향 인공지능 사업자 책무 가이드라인]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=53]]></link>
			<description><![CDATA[<p>「고영향 인공지능 사업자 책무 가이드라인」자료를 공유합니다.</p>]]></description>
			<author><![CDATA[TTA]]></author>
			<pubDate>Wed, 11 Mar 2026 01:29:25 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=8"><![CDATA[정책자료]]></category>
		</item>
				<item>
			<title><![CDATA[[정책자료] 대한민국 인공지능 행동계획(안)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=52]]></link>
			<description><![CDATA[<p>「대한민국 인공지능 행동계획(안)」자료를 공유합니다. </p>
<p>※ 출처 : 국가인공지능전략위원회</p>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:34:12 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=8"><![CDATA[정책자료]]></category>
		</item>
				<item>
			<title><![CDATA[[정책자료] AI 민생 10대 프로젝트 추진방안(안)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=51]]></link>
			<description><![CDATA[<p>「AI 민생 10대 프로젝트 추진방안(안)」자료를 공유합니다. </p>
<p>※ 출처 : 과학기술정보통신부</p>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:33:53 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=8"><![CDATA[정책자료]]></category>
		</item>
				<item>
			<title><![CDATA[[정책자료] 대한민국 AI액션플랜 추진방향]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=50]]></link>
			<description><![CDATA[<p>「대한민국 AI액션플랜 추진방향」자료를 공유합니다. </p>
<p>※ 출처 : 국가인공지능전략위원회</p>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:33:32 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=8"><![CDATA[정책자료]]></category>
		</item>
				<item>
			<title><![CDATA[[정책자료] 국가AI역량 강화방안 후속조치]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=49]]></link>
			<description><![CDATA[<div>
<p>「국가AI역량 강화방안 후속조치」자료를 공유합니다. </p>
<p>※ 출처 : 과학기술정보통신부</p>
</div>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:31:13 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=8"><![CDATA[정책자료]]></category>
		</item>
				<item>
			<title><![CDATA[[정책자료] AI컴퓨팅 인프라 확충을 통한 국가AI역량강화방안]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=48]]></link>
			<description><![CDATA[<div>
<p>「AI컴퓨팅 인프라 확충을 통한 국가AI역량강화방안」자료를 공유합니다. </p>
<p>※ 출처 : 과학기술정보통신부</p>
</div>
<p> </p>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:30:37 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=8"><![CDATA[정책자료]]></category>
		</item>
				<item>
			<title><![CDATA[인공지능(AI) 워터마크 기술 동향 보고서 발간]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=47]]></link>
			<description><![CDATA[<p>한국정보통신기술협회(TTA)는 인공지능 생성물*의 안전한 생성과 활용을 지원하기 위해 과학기술정보통신부와 협력하여 '인공지능(AI) 워터마크 기술 동향 보고서(이하 보고서)'를 발간하였습니다.<br /><br />해당 보고서는 생성 인공지능 서비스 개발자와 실제 해당 콘텐츠를 활용하는 사용자가 안전하게 생성 및 사용할 수 있도록,  인공지능 생성물에 삽입할 수 있는 워터마크의 기술적 적용 방법 및 활용 사례 등의 구체적인 내용을 제시하고 있습니다.<br /><br />보고서는 본문 아래 '첨부파일'에서 다운로드 받을 수 있으며 실무자들의 의견을 지속적으로 수렴하여 내용을 계속적으로 정비해 나갈 계획입니다. <br /><br />* 인공지능 생성물: 인공지능을 포함한 알고리즘에 의해 크게 변경되거나 생성된 이미지, 동영상, 오디오 클립, 텍스트 등의 정보</p>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:29:00 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
				<item>
			<title><![CDATA[TTA MONTHLY REPORT - 인공지능 신뢰성 동향(2025년 1월호)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=46]]></link>
			<description><![CDATA[<p>지난 12월의 인공지능 신뢰성 관련 정책, 연구, 산업, 사고 등의 주요 내용을 담아 1월호로 발간하였습니다.<br /><br />Monthly Insight</p>
<div><br />◉ AI 안전에 관한 글로벌 협력 촉진을 위해 국제 AI 안전연구소 네트워크가 출범, 초대 회원국 10개국 중 미국이 초대 의장국을 맡아 첫 회의를 개최했으며 동 네트워크는 연구, 테스트, 지침, 포용의 네 가지 우선순위 영역의 협력에 초점을 맞출 예정. 우리나라도 AI 안전성 강화를 위해 과기부 주도로 AI 안전연구소를 출범, 국제 AI 안전연구소 네트워크의 일원으로 안전한 AI를 위한 국제적 협력에 이바지할 것으로 기대<br />◉ EU 집행위는 내년 4월까지 네 차례에 걸쳐 범용 AI 실행 강령 초안을 내놓기 위해 이번에 첫 번째 초안을 공개하고, 범용 AI 모델 제공자의 의무 준수, AI 가치 사슬 전반의 범용 AI 모델 관련 이해 제고 및 범용 AI 모델의 체계적 위험 완화를 위한 EU 차원의 노력을 지원, 이는 EU의 AI법의 적절한 적용을 위한 여러 가지 지원 노력 중 하나<br />◉ AI 사용이 보편화됨에 따라 데이터 보안 및 개인정보보호의 중요성과 함께 사이버보안 강화의 필요성이 증가하고 있는 가운데 홍콩은 기업 사이버보안 준비 지수를 발표하고 기업의 사이버보안 관행 개선의 필요성을 시사</div>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:27:02 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
				<item>
			<title><![CDATA[TTA MONTHLY REPORT - 인공지능 신뢰성 동향(2024년 12월호)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=45]]></link>
			<description><![CDATA[<p>지난 11월의 인공지능 신뢰성 관련 정책, 연구, 산업, 사고 등의 주요 내용을 담아 12월호로 발간하였습니다.<br /><br /><strong>Monthly Insight</strong></p>
<ul>
<li>우리 정부는 AI 3대 강국(AI G3)을 목표로 다양한 정책을 추진 중인 가운데, AI 시대의 필수 기반인 클라우드 컴퓨팅 관련 전략을 제시하고, 안전한 AI 개발 및 활용 확산과 국내 기업의 경쟁력 확보를 위한 AI 안전연구소의 설립 및 운영 계획을 발표했으며, 개인정보위는 이동형 영상기기에서 촬영된 영상을 AI 개발에 활용할 수 있도록 보호 및 활용 기준을 제시하는 등 다양한 정책적 지원을 지속</li>
<li>급격한 AI 기술의 발전 및 확산에 따른 피해가 증가함에 따라 전 세계적으로 AI 규제 강화 및 의무 이행 촉진 노력이 늘고 있는 중. EU 집행위는 EU 맞춤형 AI 표준화의 방향성을 제시하기 위해 AI법을 위한 조화로운 표준에 관한 정책 브리핑을 발표하고 영국 Ofcom은 영국 내 온라인 서비스 제공업체를 대상으로 생성 AI 챗봇에 대한 온라인 안전법 적용에 관한 공개 서한을 통해 규제 준수를 촉구하는 등 각국의 다양한 정책적 시도를 찾아볼 수 있으며 이를 잘 벤치마킹할 필요가 있음</li>
<li>Cisco가 전세계 소비자를 대상으로 실시한 설문 조사에서 개인정보보호에 대한 소비자의 인식이 높아지고 있음을 확인하고 AI와 같은 신흥 기술에 대한 소비자의 신뢰도 향상에 개인정보보호 권리에 대한 인식이 크게 영향을 미치는 것으로 나타남</li>
</ul>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:26:41 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
				<item>
			<title><![CDATA[TTA MONTHLY REPORT - 인공지능 신뢰성 동향(2024년 11월호)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=44]]></link>
			<description><![CDATA[<p>지난 10월의 인공지능 신뢰성 관련 정책, 연구, 산업, 사고 등의 주요 내용을 담아 11월호로 발간하였습니다.<br /><br /><strong>Monthly Insight</strong></p>
<div>- G20은 글로벌 디지털 격차 해소 및 포용성 확대를 위해 안전하고 투명하며 신뢰할 수 있는 AI 사용의 중요성을 인식, 디지털 포용에 관한 공동 선언문을 채택하고 특히 AI 솔루션의 투명성 보장과 AI 생성 콘텐츠 식별을 위한 인증 메커니즘의 필요성을 강조하며 글로벌 논의 확대와 AI 거버넌스 구축을 위한 협력 강화를 약속<br />- 정부는 부처 합동으로 글로벌 AI 3대 강국으로 도약하기 위한 국가 AI 혁신 비전을 담은 「국가 AI 전략 정책방향」을 발표하고 AI 중추 국가 실현을 위한 노력을 본격화. 4대 AI 플래그십 프로젝트와 4대 분야 정책 추진 방향 등을 통해 추진 전략이 구체화 된 만큼 분야별로 이를 뒷받침하기 위한 신속한 준비가 요구될 것으로 예상되며 AI 안전·안보 확보의 중요성이 커진 만큼 AI 신뢰성 강화에 대한 신속하고 체계적인 대응 필요<br />- 백악관의 AI 행정명령에 대한 후속 조치 중 하나로 정부의 책임 있는 AI 조달을 촉진하기 위한 지침을 발표. 이는 연방정부의 거대한 구매력을 책임있는 AI 제품 및 서비스에 사용하겠다는 의지를 시사하며 추후 미 공공 조달에 참여하는 AI분야 공급업체는 기존 대비 위험관리 및 투명성 확보에 더욱 관심을 기울여야 할 것</div>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:26:24 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
				<item>
			<title><![CDATA[TTA MONTHLY REPORT - 인공지능 신뢰성 동향(2024년 10월호)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=43]]></link>
			<description><![CDATA[<p>지난 9월의 인공지능 신뢰성 관련 정책, 연구, 산업, 사고 등의 주요 내용을 담아 10월호로 발간하였습니다.<br /><br /><strong>Monthly Insight</strong></p>
<div>- EU가 전 세계 최초의 AI 규제 프레임워크인 EU AI법(AI Act)을 제정하고 8월 1일부터 이를 시행 중인 가운데 빠르게 발전하는 AI 기술에 대한 규제의 필요성이 심화. '16년 이후 30여 개국에서 AI를 명시적으로 규제하는 법률이 통과되고 전 세계적으로 AI 법안 마련에 관한 논의가 증가하는 추세에 발맞춰 UNESCO는 전 세계 AI 규제 접근방식을 정리함으로써 각국의 상황 및 목적에 맞는 규제 접근방식 채택을 가속화하도록 지원<br />- 호주 정부는 공공부문의 안전하고 윤리적이며 책임감 있는 AI 사용을 보장하기 위한 정책을 시행함으로써 공공 서비스 제공 시 AI 사용과 관련하여 AI 기술의 이점을 수용하고 해당 기술에 대한 대중의 신뢰를 강화하며 변화하는 기술에 적응할 수 있는 조치 마련에 대한 방향성을 제시. 이와 더불어 호주 산업과학자원부는 AI 공급망 전반의 모든 조직을 대상으로 AI 안전 표준을 발표하고 안전하고 책임감 있는 AI 개발 및 배포에 관한 공통의 관행 확립을 위한 노력을 개시하는 등 다양한 정책적 지원을 실행<br />- 전 세계적으로 딥페이크로 인한 피해 및 위험이 확산되고 있는 가운데 호주 의회는 딥페이크를 통해 제작된 합의되지 않은 성적 콘텐츠의 공유를 금지하기 위한 형법 개정안의 통과를 승인했고, 싱가포르 정부는 선거 기간 중 딥페이크를 통해 생성 또는 유포된 후보자 관련 허위정보 이슈로 인해, 온라인 선거 광고의 무결성을 보장하기 위해 선거법 개정을 제안하는 등 각국의 구체적인 규제 체계 정비가 꾸준히 진행되고 있음</div>
<p> </p>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:26:04 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
				<item>
			<title><![CDATA[TTA MONTHLY REPORT - 인공지능 신뢰성 동향(2024년 9월호)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=42]]></link>
			<description><![CDATA[<p>지난 8월의 인공지능 신뢰성 관련 정책, 연구, 산업, 사고 등의 주요 내용을 담아 9월호로 발간하였습니다.<br /><br /><strong>Monthly Insight</strong></p>
<ol>
<li>EU AI법(AI Act)이 8월 1일부로 시행됨에 따라, 실질적인 법 규정 적용은 대체로 2년 후에 시작되지만, EU 구성원은 물론 전 세계 기업 등 EU 내 활동 주체들은 실질적인 규제 상황을 맞게 되었고 우리도 이에 대한 대책 마련이 시급함. 아울러 EU 집행위는 AI법 조항의 단계적 시행에 따른 과도기적 조치로서 자발적인 규정 준수를 위한 AI 협약을 발표하는 등 EU는 향후 규정 준수를 위한 다양한 노력을 계속해 나갈 것으로 예상됨</li>
<li>영국 방송통신위원회(Ofcom)는 최근 딥페이크 사용에 따른 피해가 확산됨에 따라 피해 유형 및 대응 경로 등을 분석한 백서를 발표하고, 생성 AI 위험에 관한 레드티밍 보고서를 발표하는 등 생성 AI로 인한 피해로부터 사용자를 보호하기 위한 다양한 활동을 보여주고 있음</li>
<li>과기정통부는 ‘새로운 디지털 질서 정립 추진계획’의 후속조치로 AI에 관한 대국민 설문조사 결과를 발표함으로써 AI 정책 수립을 위한 국민적 관심을 환기하고 사회적 논의를 활성화. 개인정보보호위원회는 AI 개발 및 서비스를 위한 적법하고 안전한 공개 개인정보 처리에 관한 안내서를 공개함으로써 개인정보 수집 및 활용의 법적 기준을 명확화하고 기업이 취해야 할 안전조치의 기준을 제시</li>
<li>아일랜드 개인정보 감독기관은 X의 EU/EEA 사용자의 공개 게시물에 포함된 개인정보 처리를 중단하기로 합의했다고 발표했는데 이는 향후 EU 내 AI 관련 개인정보 처리가 더욱 중요한 이슈로 발전할 가능성을 보여줌</li>
</ol>
<p> </p>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:25:45 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
				<item>
			<title><![CDATA[TTA MONTHLY REPORT - 인공지능 신뢰성 동향(2024년 8월호)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=41]]></link>
			<description><![CDATA[<p>지난 7월의 인공지능 신뢰성 관련 정책, 연구, 산업, 사고 등의 주요 내용을 담아 8월호로 발간하였습니다.<br /><br /><strong>Monthly Insight</strong></p>
<ol>
<li>EU AI법(AI Act)의 시행(8/1)이 가까워 짐에 따라 EC는 첫 번째 고위급 회의 개최 등 동 법의 이행 촉진을 위한 활동을 시작하고 후속 행보를 이어가는 중. AI법 준수를 확인 할 수 있는 표준 문서가 부재한 가운데, 민간에서는 발표 전인 AI 고위험 식별을 위한 기준을 해석하기도 하며, EC는 범용 AI 모델(GPAI)의 법 준수 입증을 위한 행동강령(Codes of Practice)의 작성을 모델 제공사에게 허용하는 등 이행 과도기적 특성을 보이고 있음</li>
<li>미국 내 AI 생성 콘텐츠의 무분별한 확산에 따른 문제의식이 점화되어 인권단체의 실무그룹 구성 및 미 상원의 법안 발의 등, 생성 및 합성 AI 유해 콘텐츠의 피해 완화를 위한 대책을 수립 중. 특히 법안 통과 시 AI 생성 콘텐츠를 위한 투명성 표준 개발, 콘텐츠에 대한 소유주의 통제권 보장, AI 출처 정보 조작에 관한 처벌 강화 등의 조치가 가능해질 것으로 전망</li>
<li>Open AI는 음성 도용 소송 제기 등 논란에 따라 ChatGPT의 업데이트 계획을 연기하기로 발표, YouTube는 사용자 모방 AI 생성 콘텐츠에 대한 삭제 요청이 가능하도록 개인정보보호 정책을 변경하는 등 빅테크 기업들의 즉각 대응이 이어질 정도로 AI 생성 콘텐츠 투명성의 중요성이 대두</li>
</ol>
<p><br />자세한 내용은 첨부 문서를 참조해 주세요.</p>
<p> </p>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:25:28 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
				<item>
			<title><![CDATA[TTA MONTHLY REPORT - 인공지능 신뢰성 동향(2024년 7월호)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=40]]></link>
			<description><![CDATA[<p>지난 6월의 인공지능 신뢰성 관련 정책, 연구, 산업, 사고 등의 주요 내용을 담아 7월호로 발간하였습니다.<br /><br /><strong>Monthly Insight</strong></p>
<ol>
<li>미국 정부는 ‘안전하고 신뢰할 수 있는 AI 개발 및 사용에 관한 행정명령’의 이행 차원에서 노동부, 재무부 등 행정부 내 각 부처가 실무적인 후속 조치를 추진</li>
<li>美 노동부는 직장 내 AI 관련 위험을 완화하고 해결하기 위한 조치의 필요성이 제기되며 AI 개발 및 사용과 관련하여 근로자를 보호하기 위한 원칙을 수립할 예정이며 재무부는 AI 관련 위험으로부터 금융 소비자를 보호하기 위한 노력의 일환으로 금융 서비스 부문의 AI 사용에 관한 정보를 요청</li>
<li>EU 이사회의 승인에 따라 세계 최초의 AI 규제 법안인 EU 인공지능 법안(AI Act, AIA)이 하반기부터 발효되며 국내 사업자도 이 법의 규제 대상이 될 수 있는 만큼 이에 대한 대응 조치에 대해 논의할 필요</li>
<li>AI 규제에 있어서 글로벌 리더십을 보여주고 있는 EU는 디지털 서비스법에 따라, 최근 MS사의 검색엔진 Bing의 생성AI 기능이 환각, 딥페이크 확산, 유권자 오도 등의 위험을 유발한다는 의혹에 대한 조사를 준비</li>
<li>우리나라의 개인정보보호위원회는 개인정보 처리 AI 서비스에서 발생 가능한 위험 및 취약점을 선제적으로 식별, 예방하기 위한 조치를 실시하고, 美 NIST는 사용자의 실제 환경에서 AI 시스템의 사회적 위험과 영향을 평가하는 테스트를 실시하는 등 각국 주요 기관들은 AI 도입 확대에 따른 실질적이며 세부적인 안전성 강화를 위한 다양한 실무 조치를 추진</li>
</ol>
<div><br />자세한 내용은 첨부 문서를 참조해 주세요.</div>
<p> </p>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:25:10 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
				<item>
			<title><![CDATA[TTA MONTHLY REPORT - 인공지능 신뢰성 동향(2024년 6월호)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=39]]></link>
			<description><![CDATA[<p>AI 신뢰성 센터에서 올해 12월까지 매월 인공지능 신뢰성 동향 보고서를 발행합니다.<br /><br />지난 5월의 인공지능 신뢰성 관련 정책, 연구, 산업, 사고 등의 주요 내용을 담아 6월호로 발간하였습니다.<br /><br /><strong>Monthly Insight</strong></p>
<div>❶ 美 정부의 안전하고 신뢰할 수 있는 AI의 사용에 관한 행정명령의 이행 조치가 마무리되면서 각 부처에서 AI의 잠재적 위험을 완화할 수 있는 실무적 지침과 도구가 배포되었으며 향후 지속 이행 의지를 보임에 따라 AI 안정성 실현을 위한 실질적인 규제화 국면에 돌입<br />❷ 미국, EU를 포함한 주요국은 AI의 보안 및 안정성에 대한 우려에 동의하고 각종 지침과 권장 사항을 상호 협력하여 잇달아 제시하고 있으며, AI가 에너지, 기후 문제 등의 글로벌 직면 과제를 해결할 수 있는 잠재력을 발휘할 것을 기대<br />❸ 상수도, 통신망, 생물학, 에너지, 핵 등 안전에 직결되는 핵심 인프라 분야 및 특허와 같은 전문 분야에서도 AI의 활용이 확대되어 잠재적 위협을 인식하고 대비를 위한 실무 지침, 가이드라인, 권고사항 등을 개발하여 배포 중<br />❹ 글로벌 협의체 및 공공과 민간 영역에서 인공지능 시대에 대한 인식이 높아지고 있으며, 관련 표준의 제정, AI의 측정 및 평가를 위한 도구, 방법론 개발 등의 필요성이 대두<br />❺ AI 산업의 민간 투자 감소에도 불구, 생성 AI에 대한 투자는 증가하여, AI 생성 콘텐츠로 인한 지식재산권 보호 요구가 증대되고 있으며, 특히 유럽 각지에서 생성 AI의 일반개인정보보호(GDPR) 위반에 관한 갑론을박이 지속됨</div>
<p><br /><br />자세한 내용은 첨부 문서를 참조해 주세요.</p>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:24:48 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
				<item>
			<title><![CDATA[TTA BIWEEKLY REPORT - 인공지능 신뢰성 동향 (23.12.04 ~ 23.12.15)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=38]]></link>
			<description><![CDATA[<p><strong>■ 국내외 정책/표준화 동향</strong></p>
<ul>
<li><strong>안전하고 신뢰할 수 있는 인공지능 확산을 위한 국내 최초 인공지능 신뢰성 단체표준 제정(2023.12.12.)</strong></li>
</ul>
<div>▶ 과학기술정보통신부(과기정통부)와 한국정보통신기술협회(TTA)는 12월 6일 제104차 정보통신표준총회를 통해 ‘AI 시스템 신뢰성 제고를 위한 요구사항(Requirements to enhancing trustworthiness for AI systems)' 정보통신단체표준을 제정</div>
<ul>
<li><strong>FACT SHEET: Biden-Harris Administration Announces Voluntary Commitments from Leading Healthcare Companies to Harness the Potential and Manage the Risks Posed by AI(2023.12.14.)</strong></li>
</ul>
<div>▶ 바이든 대통령은 취임 이후 AI의 가능성을 포착하고 그에 따른 위험을 관리하기 위한 조치 마련에 착수한 가운데 행정명령 제14110호를 통해 '안전하고, 보안이 유지되며, 신뢰할 수 있는 AI의 개발과 사용'을 보장하기 위해 미국 보건복지부(HHS)를 포함하여 정부 부처가 책임지고 수행해야 할 다양한 조치를 개괄적으로 설명한 바 있음</div>
<p><br /><strong>■ 국내외 보도자료</strong></p>
<ul>
<li><strong>Principles for responsible, trustworthy and privacy-protective generative AI technologies(2023.12.01.)</strong></li>
</ul>
<div>▶ 유네스코(UNESCO)와 LG AI 연구소가 인권, 투명성, 공정성을 중심으로 AI 기술의 윤리적 활용을 촉진하는 데 중점을 두고 AI의 책임 있는 개발을 위해 협력할 것을 약속하는 의향서(Letter of Intent, LOI)를 체결</div>
<ul>
<li><strong>AI Alliance Launches as an International Community of Leading Technology Developers, Researchers, and Adopters Collaborating Together to Advance Open, Safe, Responsible AI(2023.12.05.)</strong></li>
</ul>
<div>▶ IBM, Meta, 하버드대 및 미국항공우주국(NASA) 등 전 세계 50개 이상의 업계, 학계 등의 회원사 및 협력사가 함께 개방적이고 안전하며 책임감 있는 AI 개발을 위해 구성된 국제 커뮤니티인 'AI 동맹(AI Alliance)'을 출범</div>
<ul>
<li><strong>Principles for responsible, trustworthy and privacy-protective generative AI technologies(2023.12.07.)</strong></li>
</ul>
<div>▶ 캐나다 개인정보 감독기관(Office of the Privacy Commissioner, OPC)이 책임감 있고 신뢰할 수 있으며 개인정보를 보호하는 생성 AI 기술에 관한 원칙을 발표</div>
<ul>
<li><strong>인공지능(A.I) 훈민정음: 대국민 인공지능 가이드북(2023.12.11.)</strong></li>
</ul>
<div>▶ 한국지능정보사회진흥원(NIA)이 국민 누구나 쉽고 재미있게 AI를 이해할 수 있도록 지원하기 위해 '인공지능 훈민정음: 대국민 인공지능 가이드북'을 발간</div>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:24:25 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
				<item>
			<title><![CDATA[TTA BIWEEKLY REPORT - 인공지능 신뢰성 동향 (23.11.20 ~ 23.12.01)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=37]]></link>
			<description><![CDATA[<div><strong>■ 국내외 정책/표준화 동향</strong>
<ul>
<li><strong>Preventing the Harms of AI-enabled Voice Cloning(2023.11.16.)</strong></li>
</ul>
<div>▶ 미국 연방거래위원회(FTC)가 AI를 통한 음성 복제 관련 위험을 해결하기 위한 프로그램인 'Voice Cloning Challenge'를 발표<br /> </div>
<ul>
<li><strong>인공지능(AI) 기반 의료기기 성능평가 국제표준, 한국이 주도한다(2023.11.20.)</strong></li>
</ul>
<div>▶ 식품의약품안전처는 국제전기표준위원회(IEC) 의료용 전기기기 기술위원회(IEC/TC 62)에 제안한 인공지능/머신러닝(AI/ML) 기반 의료기기에 대한 성능평가 절차에 관한 국제표준 개발이 승인됐으며, 향후 해당 국제표준 개발을 우리나라가 주도하게 되었다고 발표 <br /> </div>
<ul>
<li><strong>FTC Authorizes Compulsory Process for AI-related Products and Services(2023.11.21.)</strong></li>
</ul>
<div>▶ 미국 연방거래위원회(FTC)가 AI를 사용하여 생산된 제품 및 서비스와 관련된 비공개 조사에서 강제 절차의 사용을 승인하는 옴니버스 결의안을 승인<br /> </div>
<ul>
<li><strong>Artificial Intelligence (Regulation) Bill(2023.11.22.)</strong></li>
</ul>
<div>▶ 영국 의회에 인공지능(규제) 법안이 제출된 가운데 같은 날 하원이 첫 번째 독회를 통해 동 법안의 통과를 승인<br /> </div>
<ul>
<li><strong>'한국 제안' AI용 반도체 표준개발, 국제전기기술위서 본격화(2023.11.24.)</strong></li>
</ul>
<div>▶ 산업통상자원부 국가기술표준원은 한국이 제안한 AI용 반도체 '뉴로모픽 소자'에 관한 국제표준 개발이 국제전기기술위원회(IEC)에서 본격화될 예정이라고 발표<br /> </div>
<ul>
<li><strong>The Australian Framework for Generative Artificial Intelligence (AI) in Schools(2023.12.01.)</strong></li>
</ul>
<div>▶ 호주 교육부가 '학교에서의 생성 AI 사용을 위한 호주 프레임워크(Australian Framework for Generative Artificial Intelligence (AI) in Schools)'를 발표</div>
<br /><strong>■ 국내외 보도자료</strong>
<ul>
<li><strong>Practical Guidance for the Use of Generative Artificial Intelligence in the Practice of Law(2023.11.16.)</strong></li>
</ul>
<p>▶ 미국 캘리포니아 주 변호사 협회(State Bar of California) 이사회가 법률 업무에서의 생성 AI 사용에 관한 실무 지침을 승인<br /> </p>
<ul>
<li><strong>한국표준협회- PwC컨설팅 AI 규제 대응과 거버넌스 수립 지원을 위한 협약 체결(2023.11.20.)</strong></li>
</ul>
<p>▶ 한국표준협회(KSA)가 PwC컨설팅과 함께 ‘AI 규제대응과 거버넌스 수립 지원을 위한 업무협약’을 체결<br /> </p>
<ul>
<li><strong>韓·英, 디지털정부 MOU 체결… “AI 활용 세계 표준 협력”(2023.11.24.)</strong></li>
</ul>
<p>▶ 이상민 행정안전부 장관은 영국 런던 내각부를 방문해 알렉스 버가트 내각부 장관과 ‘한영 디지털 정부 협력에 관한 양해각서(MOU)’를 체결한 가운데 전자정부 분야 선도국인 한국과 영국이 AI가 포함된 차세대 전자정부의 세계 표준을 만들기 위한 협력을 대폭 강화할 계획<br /> </p>
<ul>
<li><strong>구글딥마인드-KAIST, "인공지능으로 시각을 상상하다"...본 적 없는 개념 상상하는 능력의 AI모델 세계 최초 개발(2023.11.30.)</strong></li>
</ul>
</div>
<div>▶ KAIST 전산학부 안성진 교수 연구팀이 구글 딥마인드(Google DeepMind) 및 미국 럿거스대학교(Rutgers University)와의 국제 공동 연구를 통해 시각적 지식을 체계적으로 조합해 새로운 개념을 이해하는 새로운 AI 모델과 프로그램을 수행하는 벤치마크를 개발</div>
<p> </p>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:24:03 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
				<item>
			<title><![CDATA[TTA BIWEEKLY REPORT - 인공지능 신뢰성 동향 (23.11.06 ~ 23.11.17)]]></title>
			<link><![CDATA[https://aitrustalliance.ai/?kboard_content_redirect=36]]></link>
			<description><![CDATA[<p><strong>■ 국내외 정책/표준화 동향</strong></p>
<ul>
<li><strong>과기정통부, ‘인공지능 안전성 정상회의 참석 성과 발표’(2023.11.07.)</strong></li>
</ul>
<div>▶ 과학기술정보통신부(이하 '과기정통부')가 11월 1일에서 11월 2일 양일간 영국 블레츨리 파크에서 열린 AI 안전성 정상회의(AI Safety Summit) 참석 성과를 발표<br /> </div>
<ul>
<li><strong>FTC Comment on Artificial Intelligence and Copyright(2023.11.07.)</strong></li>
</ul>
<div>▶ 미국 연방거래위원회(FTC)가 AI·저작권 관련 미국 저작권청(U.S. Copyright Office)의 질의에 대한 의견을 제출<br /> </div>
<ul>
<li><strong>Current data protection law is directly applicable to AI(2023.11.09.)</strong></li>
</ul>
<div>▶ 스위스 개인정보 감독기관(PFPDT)이 '23년 9월 1일부터 시행된 연방개인정보보호법(LPD)이 AI에 기반한 개인정보 처리에 직접 적용된다는 점을 명확화하는 성명을 발표<br /> </div>
<ul>
<li><strong>OECD updates definition of Artificial Intelligence ‘to inform EU’s AI Act’(2023.11.10.)</strong></li>
</ul>
<div>▶ 경제협력개발기구(OECD) 이사회가 EU의 새로운 AI 규정집에 포함될 AI에 관한 새로운 정의를 채택<br /> </div>
<ul>
<li><strong>국민 일상 편의 제고, 인공지능(AI) 등 신산업 성장 촉진을 위한 데이터 경제 활성화 핵심과제 추진(2023.11.14.)</strong></li>
</ul>
<div>▶ 생성 AI의 등장, 자율주행 기술 고도화 등 신산업 발전이 가속화되고 있는 가운데 정부가 국민 일상 편의 제고, AI 등 신산업 성장 촉진 등 데이터 산업 생태계 구축을 통한 데이터 경제 활성화를 위한 ｢데이터 경제 활성화 추진과제｣를 발표<br /> </div>
<ul>
<li><strong>Joint Statement of the Japan-U.S. Economic Policy Consultative Committee(2023.11.14.)</strong></li>
</ul>
<div>▶ 일본-미국 경제정책협의위원회(Economic Policy Consultative Committee, EPCC)가 ▲데이터 보안 및 개인정보 보호를 포함한 여러 분야에서 인도 태평양 지역의 규칙 기반 경제 질서를 강화하고 ▲AI 및 사이버보안과 같은 핵심·신흥 기술을 장려하고 보호하며 경제 회복력을 강화하기 위한 협력을 약속하는 공동 성명을 발표<br /> </div>
<ul>
<li><strong>New digitization strategy sets direction for Denmark's digital development(2023.11.14.)</strong></li>
</ul>
<div>▶ 덴마크 정부가 공공 및 민간 부문 모두에서의 AI의 개발과 통합의 방향성을 제시하는 디지털화 전략을 발표했으며, 이 전략은 2024년부터 2027년까지 시행될 예정으로 AI, 녹색 전환, 디지털 교육 등의 분야에 중점을 둔 25개의 이니셔티브로 구성</div>
<p><br /><br /><strong>■ 국내외 보도자료</strong></p>
<ul>
<li><strong>Generative AI: The Data Protection Implications(2023.10.26.)</strong></li>
</ul>
<div>▶ 유럽 개인정보 감독기관 연합(Confederation of European Data Protection Organizations, CEDPO)이  ’생성 AI: 개인정보보호에 미치는 영향‘이라는 제목의 백서를 발표<br /> </div>
<ul>
<li><strong>How might artificial intelligence affect the trustworthiness of public service delivery?(2023.10.27.)</strong></li>
</ul>
<div>▶ 호주 정부가 AI가 공공 서비스의 신뢰성에 미치는 영향에 관한 인사이트 브리핑을 발표<br /> </div>
<ul>
<li><strong>Common guideposts to promote interoperability in AI risk management(2023.11.07.)</strong></li>
</ul>
<div>▶ 경제협력개발기구(OECD)가 'AI 위험관리의 상호운용성 증진을 위한 공동 지표'라는 제목의 보고서를 발표<br /> </div>
<ul>
<li><strong>OpenAI says ChatGPT downtime caused by targeted attack(2023.11.09.)</strong></li>
</ul>
<div>▶ OpenAI는 즉시 디도스(DDoS) 공격으로 보이는 비정상적인 트래픽 패턴으로 접속 장애가 발생해 서비스를 중단하고 이를 처리 중이라는 성명을 발표한 가운데 일부 사용자들은 목요일까지도 오류 메시지를 수신<br /> </div>
<ul>
<li><strong>AI가 보행자 사고위험 감지… 충돌 예상 5.5초 전 ‘차량 주의’ 경고(2023.11.13.)</strong></li>
</ul>
<div>▶ 한국교통연구원이 개발해 시범 운영 중인 ‘어린이보호구역(스쿨존) 인공지능(AI) 안전관리 시스템’이 스쿨존 내 불법 주행을 단속하고 사고위험을 신속히 탐지해 사고를 예방</div>]]></description>
			<author><![CDATA[관리자]]></author>
			<pubDate>Wed, 14 Jan 2026 01:23:41 +0000</pubDate>
			<category domain="https://aitrustalliance.ai/?kboard_redirect=7"><![CDATA[표준동향]]></category>
		</item>
			</channel>
</rss>