第2問 文章読解 (30点)
次の文章を読んで、後の問いに答えなさい。
現代社会における人工知能(AI)の進化は目覚ましいが、その中でも特に注目されているのが「説明可能性」(Explainability)の問題である。AI、特に深層学習(ディープラーニング)モデルは、医療診断や金融取引、自動運転といった、人間の生活に直結する分野で活用が進んでいる。しかし、深層学習は複雑な多層構造を持つため、なぜその結論に至ったのかという判断プロセスがブラックボックス化しやすいという特性がある。
このブラックボックス化は、いくつかの深刻な問題を引き起こす。第一に、判断ミスが 発生した際の責任の所在を明確にできない点である。例えば、AI が自動運転中に事故を引き起こした場合、その AI の判断根拠が不明確であれば、開発者、使用者、または AI そのもののどこに責任があるのかを追及することが困難になる。第二に、倫理的なバイアスの内在である。訓練データに人種的、性別的偏見が含まれていた場合、AI はその偏見を学習し、不公平な判断を下す可能性がある。その判断理由がわからなければ、バイアスを特定し、修正することは不可能に近い。
こうした背景から、AI の決定過程を人間が理解できるよう可視化し、解釈できる技術である「説明可能性 AI」(XAI: Explainable AI)が急速に発展している。XAI の目的は、 AI の精度を落とすことなく、判断の透明性を高めることにある。具体的には、どの入力データや特徴量がその決定に最も強く影響を与えたのかを示す手法などが研究されている。
説明可能性は、単に技術的な課題としてだけでなく、社会からの信頼を得るための「信頼性」を確保する上でも不可欠な要素となっている。法的な規制も進みつつあり、 特にヨーロッパでは、AI の意思決定に関して説明を求める「説明を受ける権利」が具体化され始めている。今後、AI が社会の基盤技術となるにつれて、この「説明責任」 は技術開発において最も重要な要件の一つとなるだろう。
第3問 作文 (30点)
近年、学校教育において、デジタルデバイスの導入が進んでいます。「小中学校におけるデジタルデバイス(タブレットなど)の利用は、学習効果を損なうため、原則として制限すべきである」という意見に対し、あなたは賛成ですか、反対ですか。
<ルール>に従い提案文を書きなさい。
<ルール>
➢ 450 文字以上 500 文字以内
➢ 自分の意見を提示してから書き始める
➢ 原稿用紙の書き方に従って書く
現在の文字数: 0 文字
第4問 言葉 (15点)
次の太文字を漢字に直し、読み仮名はひらがなで答えなさい。
第5問 言葉の係り受け (15点)
【 】内の言葉が修飾している語を選びなさい。