Rustは、その所有権システムと型安全性により、並行プログラミングの課題を安全かつ効率的に解決できる言語として注目されています。本記事では、Rustのクロージャを活用してスレッド間で安全にデータを共有する方法を紹介します。並行処理は多くのプログラムで不可欠ですが、データ競合や不整合などの問題が発生しやすい領域です。Rustの提供するツールや特性を理解し、正しく活用することで、これらの課題を克服し、堅牢なプログラムを実現する方法を学びます。
スレッド間データ共有の課題
スレッド間でデータを共有する際、データ競合や整合性の問題が発生する可能性があります。この問題を適切に解決しないと、プログラムは予測不可能な動作を示したり、クラッシュする可能性があります。
データ競合のリスク
複数のスレッドが同時に同じデータにアクセスし、片方が読み取り中にもう片方が書き込みを行った場合、データが破損する可能性があります。これがいわゆる「データ競合」です。
ロックの問題
共有データへのアクセスを制御するためのロック機構は、データ競合を防ぐ手段ですが、適切に設計されていないと「デッドロック」や「スレッドスタベーション」といった問題を引き起こします。
スレッドセーフの難しさ
一般的なプログラミング言語では、スレッドセーフなコードを書くために開発者が手動で多くの制御を行う必要があります。その結果、コードが複雑になり、バグが発生する可能性が高まります。
Rustはこれらの課題を解決するために、所有権と借用の仕組み、さらに強力な型システムを提供します。本記事では、これらの仕組みをどのように活用してスレッド間で安全にデータを共有するかを掘り下げていきます。
Rustのクロージャの基礎
クロージャは、Rustで関数のように振る舞う一等市民のデータ型です。通常の関数とは異なり、クロージャは周囲のスコープにある変数をキャプチャし、それを利用して動作する柔軟性を持ちます。
クロージャの構文
Rustのクロージャは、次のように定義されます。
let add = |x: i32, y: i32| -> i32 {
x + y
};
println!("{}", add(2, 3)); // 出力: 5
上記の例では、add
というクロージャが定義され、2つの引数を受け取り、それらの和を返します。|x, y|
が引数部分、-> i32
が戻り値の型を表します。
クロージャのキャプチャ動作
クロージャは、スコープ内の変数を以下の3つの方法でキャプチャします:
- 値としてキャプチャ(
move
)
変数の所有権をクロージャに移します。
let s = String::from("Hello");
let closure = move || {
println!("{}", s);
};
closure();
// `s`の所有権はclosure内に移動するため、以降`main`では使用できません。
- 参照としてキャプチャ(
&T
)
変数を借用して利用します。
let s = String::from("Hello");
let closure = || {
println!("{}", s);
};
closure();
println!("{}", s); // 問題なく動作
- 可変参照としてキャプチャ(
&mut T
)
変数の内容を変更するために借用します。
let mut count = 0;
let mut closure = || {
count += 1;
println!("{}", count);
};
closure(); // 出力: 1
closure(); // 出力: 2
クロージャが持つ特徴
- 型推論:クロージャは引数や戻り値の型を推論します。型を明示する必要がないため、コードが簡潔になります。
- 高階関数との互換性:クロージャは高階関数に渡せます。
map
やfilter
といったメソッドと組み合わせて利用するのに適しています。 - シンプルな定義:短い処理であれば、次のように非常に簡潔に定義できます。
let square = |x| x * x;
println!("{}", square(4)); // 出力: 16
Rustにおけるクロージャの柔軟性と強力なキャプチャ機能は、並行プログラミングやスレッド間データ共有のシナリオで非常に効果的です。この基礎を押さえた上で、次は実際にスレッド間でどのように使用するかを見ていきます。
クロージャを用いたスレッド間データ共有の利点
Rustのクロージャは、スレッド間での安全なデータ共有において非常に有用です。その背景には、Rustの所有権システムや型安全性が大きく関与しています。ここでは、クロージャを使うことで得られる利点を具体的に見ていきます。
クロージャによる安全なキャプチャ
クロージャは、スコープ内の変数をキャプチャしつつ、Rustの所有権ルールに従うため、スレッド間のデータ競合を防ぎます。
- 所有権の移動(
move
)によるデータ管理
クロージャは、変数の所有権を移動させることで、データの不正なアクセスを防ぎます。次の例では、クロージャが所有権を引き継ぐことで、スレッド間の安全性を確保しています。
use std::thread;
let data = vec![1, 2, 3];
let handle = thread::spawn(move || {
println!("{:?}", data);
});
handle.join().unwrap();
move
キーワードによって、data
の所有権は新しいスレッドに移動し、元のスレッドからのアクセスが防がれます。
スレッドセーフな環境構築
クロージャは、Arc(Atomic Reference Counting)やMutex(相互排他ロック)と組み合わせることで、複数のスレッド間でデータを安全に共有できます。
- Arcによる共有所有権
Arcは複数のスレッドが安全にデータを共有するための参照カウンタを提供します。クロージャがArcをキャプチャすることで、データを効率的に共有可能です。
use std::sync::Arc;
use std::thread;
let data = Arc::new(vec![1, 2, 3]);
let data_clone = Arc::clone(&data);
let handle = thread::spawn(move || {
println!("{:?}", data_clone);
});
handle.join().unwrap();
- Mutexによる排他制御
Mutexはデータへのアクセスを同期するためのロック機構を提供します。クロージャ内でMutexを使用することで、データ競合を回避できます。
use std::sync::{Arc, Mutex};
use std::thread;
let data = Arc::new(Mutex::new(vec![1, 2, 3]));
let handles: Vec<_> = (0..3).map(|i| {
let data = Arc::clone(&data);
thread::spawn(move || {
let mut data = data.lock().unwrap();
data.push(i);
})
}).collect();
for handle in handles {
handle.join().unwrap();
}
println!("{:?}", data.lock().unwrap());
柔軟性と効率性の向上
クロージャは、スレッドの起動時に手軽にロジックを定義できるため、柔軟性と効率性が向上します。関数や構造体を準備する手間を省き、簡潔に並行処理を記述できます。
エラー回避の自動化
Rustのコンパイラは、クロージャがキャプチャするデータのライフタイムや所有権の制約を厳密にチェックします。そのため、データ競合や解放後のメモリアクセスといったエラーを未然に防ぐことが可能です。
クロージャは、Rustの所有権モデルと組み合わせることで、スレッド間で安全にデータを共有するための強力なツールとして機能します。次のセクションでは、これを具体的に実現するためのツールであるMutexとArcについて詳しく解説します。
MutexとArcの基本概念
スレッド間でデータを安全に共有するには、適切な同期ツールが必要です。Rustでは、Mutex
(相互排他ロック)とArc
(参照カウント型スマートポインタ)がその役割を担います。このセクションでは、これらの基本概念を解説します。
Mutex(相互排他ロック)
Mutexは、複数のスレッドが共有データに同時アクセスする際の競合を防ぐために使用される同期ツールです。
基本動作
Mutexはロック機構を提供し、一度に1つのスレッドのみがデータにアクセスできるようにします。データにアクセスする際は、ロックを取得し、終了時にロックを解除します。Rustでは、Mutexを使用することで、手動でロック解除を行う必要はありません。
use std::sync::Mutex;
fn main() {
let data = Mutex::new(0);
{
let mut num = data.lock().unwrap();
*num += 1;
} // ロックはスコープを抜けると自動で解除されます
println!("データ: {:?}", data);
}
エラー処理
Mutexは他のスレッドがパニックを起こした場合、PoisonError
を返します。このエラーを適切に処理することで、安全性を保つことができます。
Arc(参照カウント)
Arcは、複数のスレッド間で所有権を共有するためのスマートポインタです。Rc
(単一スレッド用参照カウントポインタ)のスレッドセーフ版であり、Atomic Reference Countingを利用して並行環境で安全に動作します。
基本動作
Arcは内部で参照カウントを管理し、所有権が共有されている間はデータの破棄を防ぎます。新しいスレッドにデータを渡す際に、Arcをクローンして使用します。
use std::sync::Arc;
fn main() {
let data = Arc::new(5);
let data_clone = Arc::clone(&data);
std::thread::spawn(move || {
println!("クローンされたデータ: {}", data_clone);
}).join().unwrap();
println!("元のデータ: {}", data);
}
ArcとMutexの組み合わせ
Arcは所有権の共有を可能にし、Mutexはデータアクセスを安全にします。この2つを組み合わせることで、スレッド間で安全かつ効率的にデータを共有できます。
use std::sync::{Arc, Mutex};
use std::thread;
fn main() {
let data = Arc::new(Mutex::new(0));
let handles: Vec<_> = (0..10).map(|_| {
let data = Arc::clone(&data);
thread::spawn(move || {
let mut num = data.lock().unwrap();
*num += 1;
})
}).collect();
for handle in handles {
handle.join().unwrap();
}
println!("最終的な値: {}", *data.lock().unwrap());
}
MutexとArcを使用する際の注意点
- デッドロックに注意:複数のMutexを使用する場合、ロックの順序に注意しないとデッドロックが発生します。
- パフォーマンスの影響:ロックの取得や解放にはオーバーヘッドがあるため、頻繁にアクセスする場合は注意が必要です。
MutexとArcを組み合わせることで、スレッドセーフなデータ共有が可能になります。次のセクションでは、これらを具体的にクロージャと連携させた実践例を見ていきます。
クロージャとArc, Mutexの組み合わせ例
Rustでは、Arc
とMutex
を組み合わせることで、スレッド間で安全にデータを共有できます。さらに、クロージャを活用することでコードを簡潔にしつつ、柔軟なロジックを実現可能です。このセクションでは、実践的な例を用いてこれらの技術を説明します。
スレッド間カウンタの実装例
複数のスレッドで共有カウンタを操作するプログラムを作成します。ここでは、Arc
とMutex
を利用して安全性を確保します。
use std::sync::{Arc, Mutex};
use std::thread;
fn main() {
// Arcで共有データをラップし、Mutexでスレッドセーフ性を確保
let counter = Arc::new(Mutex::new(0));
let handles: Vec<_> = (0..10).map(|_| {
let counter = Arc::clone(&counter);
// クロージャを利用してスレッドロジックを簡潔に記述
thread::spawn(move || {
let mut num = counter.lock().unwrap();
*num += 1;
})
}).collect();
// 全スレッドの終了を待機
for handle in handles {
handle.join().unwrap();
}
println!("カウンタの最終値: {}", *counter.lock().unwrap());
}
コードの説明
- 共有データの作成
Mutex
で保護されたカウンタ(整数)を作成し、Arc
で複数スレッドに安全に渡せるようにしています。
- スレッドの起動
Arc::clone
を使用して各スレッドが同じ共有データを参照。- クロージャ内で
counter.lock().unwrap()
を呼び出してデータにアクセスし、排他制御を行います。
- スレッドの終了を待機
join
で全てのスレッドの実行完了を待ちます。
- カウンタの出力
- ロックを取得して最終的なカウンタ値を表示します。
複雑なロジックを含む例:スレッド間でのタスクスケジューリング
次に、クロージャとArc
、Mutex
を活用してスレッド間でタスクをスケジューリングする簡単なプログラムを作成します。
use std::sync::{Arc, Mutex};
use std::thread;
fn main() {
// タスクキューの作成
let tasks = Arc::new(Mutex::new(vec![1, 2, 3, 4, 5]));
let handles: Vec<_> = (0..3).map(|_| {
let tasks = Arc::clone(&tasks);
thread::spawn(move || {
loop {
let task = {
// ロックを取得し、タスクを取り出す
let mut tasks = tasks.lock().unwrap();
tasks.pop()
};
match task {
Some(t) => {
println!("タスク {} を処理中...", t);
// 処理時間のシミュレーション
std::thread::sleep(std::time::Duration::from_millis(100));
}
None => break, // キューが空なら終了
}
}
})
}).collect();
for handle in handles {
handle.join().unwrap();
}
println!("全てのタスクが完了しました!");
}
コードの説明
- タスクキューの作成
Mutex
でベクタを保護し、Arc
でスレッド間で共有可能にします。
- スレッドの起動
- 各スレッドがループ内でキューからタスクを取り出し、処理を行います。
- キューが空になるとループを終了します。
- タスク処理
- タスクの処理には
pop
を利用し、ロックを最小限の範囲で使用することでパフォーマンスを確保します。
組み合わせによる利点
- データ競合の防止:
Mutex
により、同時アクセスによるデータ競合を防ぎます。 - 所有権の安全な共有:
Arc
により、複数のスレッドでデータを共有しつつ所有権を適切に管理できます。 - 簡潔なコード:クロージャを活用することで、スレッドごとのロジックを簡潔に記述できます。
この例を基に、スレッド間でのデータ共有と処理の設計を応用することで、複雑な並行処理を効率的に実現できます。次のセクションでは、よくあるミスとその回避方法について解説します。
よくあるミスとその回避法
Rustでスレッド間データ共有を実装する際には、いくつかの一般的なミスが発生しやすいポイントがあります。これらを事前に理解し、適切に対処することで、スレッドセーフなコードを書くことができます。
よくあるミス1: ロックのデッドロック
問題:
複数のMutex
を使用している場合、スレッドが互いにロックを待ち続ける状態(デッドロック)が発生することがあります。
回避方法:
- ロックの取得順序を明確に定義し、全スレッドで統一する。
- 複数のリソースを一度にロックする場合は、一つの
Mutex
でまとめる。
例(デッドロックの回避):
use std::sync::{Arc, Mutex};
use std::thread;
fn main() {
let resource1 = Arc::new(Mutex::new(0));
let resource2 = Arc::new(Mutex::new(0));
let r1_clone = Arc::clone(&resource1);
let r2_clone = Arc::clone(&resource2);
let handle1 = thread::spawn(move || {
let mut r1 = r1_clone.lock().unwrap();
*r1 += 1;
let mut r2 = r2_clone.lock().unwrap();
*r2 += 1;
});
let r1_clone = Arc::clone(&resource1);
let r2_clone = Arc::clone(&resource2);
let handle2 = thread::spawn(move || {
// ロック順序を統一することでデッドロックを防ぐ
let mut r1 = r1_clone.lock().unwrap();
*r1 += 2;
let mut r2 = r2_clone.lock().unwrap();
*r2 += 2;
});
handle1.join().unwrap();
handle2.join().unwrap();
println!("完了");
}
よくあるミス2: ロックの過剰利用
問題:Mutex
でデータをロックしすぎると、パフォーマンスに悪影響を及ぼします。ロックの範囲が広すぎると、他のスレッドがアクセスできなくなる時間が長くなります。
回避方法:
- ロックを取得する範囲を最小限に抑える。
- 必要な処理が終わればすぐにロックを解除する。
例(ロック範囲の最小化):
use std::sync::{Arc, Mutex};
use std::thread;
fn main() {
let data = Arc::new(Mutex::new(vec![]));
let handles: Vec<_> = (0..5).map(|i| {
let data = Arc::clone(&data);
thread::spawn(move || {
let mut data_lock = data.lock().unwrap();
data_lock.push(i); // ロック範囲はこの操作のみに限定
})
}).collect();
for handle in handles {
handle.join().unwrap();
}
println!("{:?}", *data.lock().unwrap());
}
よくあるミス3: `PoisonError`の未処理
問題:
他のスレッドでパニックが発生すると、Mutex
が「ポイズン状態」になり、次回のロック取得時にPoisonError
が発生します。
回避方法:
PoisonError
を適切に処理し、必要に応じてデータをリカバリする。
例(PoisonError
の処理):
use std::sync::{Arc, Mutex};
use std::thread;
fn main() {
let data = Arc::new(Mutex::new(vec![1, 2, 3]));
let data_clone = Arc::clone(&data);
let handle = thread::spawn(move || {
let _ = data_clone.lock().unwrap();
panic!("スレッドでパニック!");
});
let _ = handle.join();
// PoisonErrorを処理する
let mut data_lock = match data.lock() {
Ok(data) => data,
Err(poisoned) => poisoned.into_inner(),
};
data_lock.push(4);
println!("{:?}", *data_lock);
}
よくあるミス4: `Arc`の参照カウント漏れ
問題:
参照カウント型であるArc
は、スレッド間で利用されている間はデータが破棄されませんが、不要になった場合は適切に管理する必要があります。
回避方法:
Arc::clone
を慎重に使用し、過剰にクローンしない。
例(適切な管理):
use std::sync::Arc;
fn main() {
let data = Arc::new(5);
{
let data_clone = Arc::clone(&data);
println!("クローンされたデータ: {}", data_clone);
} // このスコープを抜けるとクローンは破棄される
println!("元のデータ: {}", data);
}
安全なコードを書くためのまとめ
- デッドロックを避けるためにロックの順序を統一する。
- ロック範囲を必要最低限に抑える。
PoisonError
などのエラーを適切に処理する。Arc
の参照カウントを適切に管理する。
これらのベストプラクティスを守ることで、安全かつ効率的なスレッド間データ共有を実現できます。次のセクションでは、さらに応用例としてスレッドプールを利用したタスク管理を紹介します。
応用例:スレッドプールを利用したタスク管理
スレッドプールは、タスクを効率的に処理するために複数のスレッドを再利用する仕組みです。Rustでは、Arc
とMutex
を使用してタスクキューを共有し、スレッドプールを構築できます。このセクションでは、スレッドプールを活用して効率的にタスクを管理する方法を解説します。
スレッドプールの仕組み
スレッドプールの基本構造は以下の通りです:
- タスクキュー: 未処理のタスクを保持する共有キュー。
- ワーカー: キューからタスクを取得し、処理を行うスレッド。
- スレッドの再利用: タスクが終了してもスレッドは終了せず、新しいタスクを処理します。
シンプルなスレッドプールの実装例
以下の例では、簡単なタスクスケジューリングを行うスレッドプールを構築します。
use std::sync::{Arc, Mutex};
use std::thread;
use std::time::Duration;
fn main() {
// タスクキューを共有
let task_queue = Arc::new(Mutex::new(vec![1, 2, 3, 4, 5]));
// ワーカー数を指定
let num_workers = 3;
let mut handles = vec![];
for _ in 0..num_workers {
let queue = Arc::clone(&task_queue);
let handle = thread::spawn(move || {
loop {
let task = {
// キューからタスクを取り出す
let mut queue = queue.lock().unwrap();
queue.pop()
};
match task {
Some(task) => {
println!("スレッド {:?} がタスク {} を処理中...", thread::current().id(), task);
// タスク処理のシミュレーション
thread::sleep(Duration::from_millis(500));
}
None => break, // キューが空ならループを終了
}
}
});
handles.push(handle);
}
// 全スレッドが終了するのを待つ
for handle in handles {
handle.join().unwrap();
}
println!("すべてのタスクが完了しました!");
}
コードの説明
- タスクキューの共有
Arc
とMutex
を使用してタスクキューを共有。複数のスレッドが安全にアクセス可能です。
- ワーカーの起動
- 各スレッド(ワーカー)は、キューからタスクを取り出し、処理を行います。タスクがなくなるとループを終了します。
- タスク処理のシミュレーション
- タスク処理には一定時間の遅延を設けて、並行性を観察しやすくしています。
- スレッド終了の待機
- 全スレッドが処理を終えるまで
join
で待機します。
スレッドプールの拡張例:動的なタスク追加
次に、実行中に新しいタスクを追加する柔軟なスレッドプールを実装します。
use std::sync::{Arc, Mutex};
use std::thread;
use std::time::Duration;
fn main() {
let task_queue = Arc::new(Mutex::new(vec![]));
let num_workers = 3;
let mut handles = vec![];
for _ in 0..num_workers {
let queue = Arc::clone(&task_queue);
let handle = thread::spawn(move || {
loop {
let task = {
let mut queue = queue.lock().unwrap();
queue.pop()
};
match task {
Some(task) => {
println!("スレッド {:?} がタスク {} を処理中...", thread::current().id(), task);
thread::sleep(Duration::from_millis(500));
}
None => {
// キューが空の場合、少し待機して再試行
thread::sleep(Duration::from_millis(100));
continue;
}
}
}
});
handles.push(handle);
}
// メインスレッドで動的にタスクを追加
for i in 1..=10 {
let queue = Arc::clone(&task_queue);
{
let mut queue = queue.lock().unwrap();
queue.push(i);
println!("タスク {} をキューに追加", i);
}
thread::sleep(Duration::from_millis(200));
}
// ワーカーの終了は省略(キューが空の状態を確認する仕組みを導入可能)
println!("タスクの動的追加完了");
}
動的タスク追加のポイント
- メインスレッドで
Mutex
をロックして新しいタスクをキューに追加。 - ワーカーはキューが空の場合、短い待機を挟んで再試行します。
スレッドプールを利用する利点
- 効率的なリソース利用
- スレッドの生成と破棄のコストを削減し、既存のスレッドを再利用します。
- 柔軟なタスク管理
- 実行中にタスクを動的に追加可能。
- コードの簡潔化
- タスクスケジューリングのロジックを分離し、メインの処理を簡潔に記述できます。
このスレッドプールの応用例を基に、効率的な並行処理の設計を行うことができます。次のセクションでは、学習を深めるための演習問題を紹介します。
演習問題:スレッド間でのチャットシステムの実装
学習した内容を基に、スレッド間で安全にデータを共有するチャットシステムを実装する演習に挑戦しましょう。この演習では、RustのArc
、Mutex
、およびクロージャを活用してシンプルなチャットシステムを構築します。
チャットシステムの要件
- 複数のスレッド(クライアント)がメッセージを送信可能。
- メッセージは共有キューに追加され、他のスレッドで処理される。
- スレッドセーフな実装でデータ競合を防止。
チャットシステムのサンプルコード
以下に演習の基本となるコード例を示します。完成形を目指してコードを改良してください。
use std::sync::{Arc, Mutex};
use std::thread;
use std::time::Duration;
fn main() {
// メッセージキューを共有
let message_queue = Arc::new(Mutex::new(vec![]));
// 送信スレッド
let senders: Vec<_> = (1..=3).map(|client_id| {
let queue = Arc::clone(&message_queue);
thread::spawn(move || {
for i in 1..=5 {
let message = format!("クライアント{}からのメッセージ{}", client_id, i);
{
let mut queue = queue.lock().unwrap();
queue.push(message.clone());
println!("送信: {}", message);
}
thread::sleep(Duration::from_millis(100));
}
})
}).collect();
// 受信スレッド
let receiver = {
let queue = Arc::clone(&message_queue);
thread::spawn(move || {
loop {
let message = {
let mut queue = queue.lock().unwrap();
queue.pop()
};
match message {
Some(msg) => {
println!("受信: {}", msg);
thread::sleep(Duration::from_millis(200)); // メッセージ処理時間
}
None => {
thread::sleep(Duration::from_millis(50)); // キューが空の場合待機
}
}
}
})
};
// 送信スレッドの終了を待機
for sender in senders {
sender.join().unwrap();
}
// 受信スレッドの動作を一定時間で終了する方法を実装してください(省略)
println!("チャットシステムが終了しました");
}
演習の進め方
- コードを実行して動作を確認する
- 各送信スレッドがメッセージをキューに追加し、受信スレッドがそれを処理します。
- 改良点を検討する
- 受信スレッドを一定時間後に停止させるロジックを追加する。
- 複数の受信スレッドを動作させることで、並行処理を強化する。
- メッセージにタイムスタンプを追加して、送信・受信のタイミングを明確化する。
- 拡張課題
- クライアントごとのメッセージ履歴を保持する機能を追加する。
- チャットルームを複数作成し、スレッド間で異なるルームを管理する。
std::sync::mpsc
(チャネル)を使用して、スレッド間通信の別の実装方法を試す。
ポイントとアドバイス
- スレッドセーフを意識
Arc
とMutex
を使用してデータ競合を防止してください。- 効率性を考慮
- 必要以上にロックの範囲を広げないように注意し、パフォーマンスを最適化します。
- 柔軟性を持たせる
- 動的なタスクの追加やスレッド終了処理を設計に組み込むと、実用性が向上します。
この演習を通じて、Rustの並行処理におけるスレッド間データ共有の技術を実践的に学ぶことができます。完成したコードが正しく動作したら、次のステップとしてさらなる機能拡張を目指しましょう。
まとめ
本記事では、Rustのクロージャを活用して安全なスレッド間データ共有を実現する方法を解説しました。クロージャの基本的な使い方から、Arc
やMutex
といった同期ツールとの組み合わせ、さらにはスレッドプールやチャットシステムの応用例まで幅広く紹介しました。
Rustの所有権システムと型安全性により、並行プログラミングにおけるデータ競合やデッドロックのリスクを最小限に抑えることができます。この記事を通じて、クロージャの柔軟性とRustの強力なツールセットを理解し、スレッドセーフなプログラムを効率的に構築するスキルを身につけられたはずです。
次のステップとして、さらに複雑な並行処理の設計や実用的なシステムへの応用に挑戦してみてください。Rustの並行プログラミングの可能性を最大限に活用し、より強力なソフトウェアを構築していきましょう!
コメント