
3,000 wordsのmid-term paper、それは無理だろ、、
こんにちは、Ryoです。
冬学期にとったProfessional Responsibility(PR、法曹倫理)の講義で3,000 wordsのmid-term paperを書いたので、その時のことを話そうと思います。
このブログで何度か書いていますが、シカゴ大学ではPRの授業を取るのに結構苦労します。
アメリカで司法試験を受けるためにはPRの授業を必ず取らなければいけないのですが、アメリカの大学院生であるJDもこの授業を取ろうとするので、JDとLLMが抽選枠を争うことになります。
基本的にはJDが優先されるため、秋学期はPRの授業を取れなかったのですが、冬学期になんとか取ることができました。
シカゴでのめちゃくちゃ寒い冬の中、夜6時10分から8時10分という遅い時間に行われるのがネックのこの授業は、冬学期にある3つのPR講義の中で最も人気がないと思われる講義です。
ただ、PRの講義を希望する学生はたくさんいるので、当然この講義も満員御礼。
希望しても、抽選で落とされた生徒もいます。
必死で枠を勝ち取ったはいいものの、この授業は期末試験に加え、3,000 wordsのmid-term paperが課されています。
他のクラスは期末の小論文だけなのに、なぜこの講義はテストと論文どちらもあるのか。
いろいろ不満はあるものの、この講義の単位を落としては元も子もないのでなんとか取り掛かることにします。
3,000wordsってどのくらい?
さあやりましょうとはいうものの、みなさん3,000 wordsのpaperはどんなものか想像つきますでしょうか。
Double-spaceの行間で約12ページになります。
Wordで12ページ、英語で何かを論じなければいけないということになります。
これは非ネイティブの学生にとっては非常に辛いです。
しかも興味ある内容ならまだなんとかなりそうですが、この科目は法曹倫理。
司法試験のために仕方なくとっている人が多い中、法曹倫理という科目に興味を持っている人がどのくらいいるのかということです。
残念ながら、私はあまり興味を持てていません。
ルールを勉強すること自体はまだ面白いと思えますが、小論文を書くほど興味があるかというと話は違ってきます。
さらに言えば、NY Barを受けるために受験しないといけないMPREもすでに合格してしまっているので、この科目に対するモチベーションも下がっています。
3つのテーマ
学生は、以下の3つのテーマから1つを選択します。
- Ethics Rules in the Context of Corporate Client
- Ethics Rules and Trump-Era Attorneys
- Ethics Rules and AI
基本的には好きなものを選んでいいのですが、人数を均等に分けるようにするため、希望者が多ければ別のテーマを選ぶ必要があります。
私がテーマ決めのスプレッドシートを見た時はもうすでに上の2つが埋まっており、僕はEthics Rules and AIを選ぶしか選択肢はありませんでした。
テーマ的に一番書きやすいのは1つ目でしょう。
シカゴ大学には企業法務弁護士が多く集まっていますから、自分の過去の経験と照らし合わせながら論文を書くことができます。
僕もできればこれが良かったなと思っています。
2つ目のテーマは僕からしたら微妙なところ。
他の学生には人気があったようですが、政治が絡むとややこしいですし、アメリカの文化的事情も関係するので書くことがあまり思いつきません。
3つ目のテーマは、法曹倫理とAIという今っぽいトピック。
なんでもAIと絡めとけという感じですね。
このテーマの最大の問題点はAIに聞けないこと!
3,000 wordsのpaperを自力で書き上げるのは大変なので、まずはAIに聞いてみようというのは誰もが一度は考えることですが、AIにAIの使用による倫理的な問題点を聞いてどうする。
答えは返してくれるかもしれませんが、それが役に立つ保証はありません。
絶対みんなAIに聞けないからこのテーマを選ばなかっただろ。。
そうぼやきながらも、このテーマしか残っていないので仕方ありません。
課題内容
Ethics Rules and AIの課題内容は以下の通り。
You work in the General Counsel’s office at a large law firm and have been asked to draft an AI Use Policy that addresses the risks associated with the use of AI in connection with client legal work and provides guidance to lawyers on such use. Write a paper/memo examining the professional responsibility and legal issues and risks presented by AI and your recommendations on how the policy should address those issues to mitigate these risks, and any additional guidance you believe the firm should provide to its lawyers on AI use. Discuss any relevant Model Rules and other principals covered in class to this point. You may (but are not required to) include with your paper a draft policy (which counts toward the page/word count requirement).
要約すると、以下のようになります。
あなたは、弁護士事務所からAIの使用に関するポリシーを作るよう依頼されました。
AIの使用に関する法曹倫理上の問題を分析し、ポリシーがどのようにそのリスクを軽減すべきか提言してください。
皆さんだったら、どのようなことを書くでしょうか。
参考までに、私が参照した資料を一部共有します。
Standing Order for Civil Cases Before Magistrate Judge Fuentes
Standing Order re: AI in cases assigned to Judge Baylson
Practical Artificial Intelligence in the Practice of Law
Florida Bar Ethics Opinion 24-1
AIの使用について触れた裁判例もいくつかありますし、AIの使用に関するガイダンスを出している州や団体もあります。
実際に書いた論文の概要
これらの資料を読めばわかりますが、AIの使用との関係で問題となるModel Rule(倫理規則)はいくつかあります。
それらを、私が検討した順に見ていくことにします。
Competence(有能さ)
Model Ruleには、弁護士は、依頼者を代理するにあたり、十分な法的知識・スキル・信念を備え、代理行為に合理的に必要な準備をした上で、有能に活動しなければならないという条文があります。
弁護士としてあるべき心構えを述べた一般規定のようにも見えますが、実はこの条文でも勉強しないといけないことは意外と多いです。
新人弁護士でもCompetenceを備えているかといった論点や、どのようにすればCompetenceを備えたといえるのかといった論点ですね。
今回のpaperに関していえば、以下のようなリスクが考えられるでしょうか。
- AIの回答を弁護士が誤解したり、鵜呑みにしたりするリスク
- AIが学習する過程で生じたバイアスに弁護士が影響を受けるリスク
- AIが質問の意図を理解できず、誤った情報をベースに回答してしまうリスク
端的にいえば、AIによる解答を弁護士が誤って捉えてしまうと危険性ということになりますが、分解してみると弁護士の法的知識の不足が原因だったり、AIの仕様・性質に対する理解が不十分なことが原因として挙げられるということです。
弁護士はAIの専門家ではないので、AIについて詳細を知る必要はありません。
しかし、AIを利用してクライアントへアドバイスを行う以上、AIができること、できないことについてはある程度理解しておく必要があるでしょう。
職務でAIを利用する際には、法的知識だけでなくAIに関する一定程度の知識も備えていなければいけないということですね。
Competenceについてポリシーで長々触れてもしょうがないので、短く触れる程度でいいと思いますが、最低限自分が使用するAIを含むテクノロジーについてはその使用法、想定されるベネフィット及びリスクについて理解し、慎重な利用を心がけることは述べておくべきと考えました。
ポリシーに書くかはともかく、追加のガイダンスとして、AIへの過度な依拠は弁護士の職務上許されず、法的な判断は常に人間がする必要があること、AIの利用は許されるが、最終的な成果物とすべきではないことも併せて伝えておくべきではないかと考えました。
Confidentiality(守秘義務)
これは日本でも馴染みがありますが、弁護士はクライアントの合意がない限り、原則として業務の秘密情報を開示してはならないという規則ですね。
ちなみにですが、アメリカでは守秘義務の他にAttorney-client privilege、Work product privilegeというものがあり、結構ややこしい分野です。
Attorney-client privilegeとWork product privilegeはCivil Procedureで詳しく扱うので、興味がある人は授業を取ってみてください。
さて、この文脈で考えられるリスクは以下。
- クライアントの秘密情報が第三者のサーバーに保存されるリスク
- ハッキングによって秘密情報が盗まれるリスク
- AIの学習過程により過去にインプットされた情報が公開されてしまうリスク
- 他州、他法域でのプライバシーリスク(政府による検閲等)
業務の秘密情報をAIにインプットするべきではないのですが、もしAIにインプットされてしまった場合その情報がどのように扱われるかがわからないという問題ですね。
これらのリスクを軽減するようポリシーを作る必要があります。
業務の関係でクライアント情報をインプットする場合には、それが他者に公開されるリスクを事前にしっかり分析しないといけません。
また、他者がその情報にアクセスしうるリスクも念頭に置く必要があります。
そして、クライアントからの同意を得ることも重要です。
AIを業務に利用する際には、クライアントの意図しない情報漏洩を防ぐため、AIを利用することの通知及び同意が必要と考えます。
とは言っても、クライアントから同意を得たからといって情報漏洩のリスクが排除されるわけではありません。
クライアント情報をインプットする可能性がある以上、AIの利用規約やプライバシーポリシーを読むか、もしくはそれらに詳しい第三者の意見を仰ぐことで情報漏洩のリスクをできる限り減らす努力をすべきといえます。
そもそも、クライアント情報をAIにインプットするなよという話ですけどね。
何があるかはわかりませんので、不測の事態に備えてポリシーを設計する必要があります。
Communication(依頼者とのコミュニケーション)
依頼者とのコミュニケーションも、クライアントとの信頼関係を構築する上で大事な要素です。
クライアントが知るべき情報を弁護士が受け取ったら、すぐにクライアントに伝えるべきでしょうし、クライアントの判断が必要な事項については、クライアントと協議しなければなりません。
依頼者とのコミュニケーションとの関係で問題となるのは、弁護士が業務にAIを使用することをそもそもクライアントに伝えなければいけないのか、どのような場合にクライアントからの同意を得なければいけないかということではないでしょうか。
弁護士がAIを利用しているという事実がどの程度クライアントにとって重要となるかということですね。
クライアントや案件によりけりとしか言えない問題ですが、クライアントが仕事の進め方やAIの使用について明示的に聞いてきた場合にはAIの使用状況・方法を公開する必要があるでしょう。
クライアントはそれが自分にとって大事なことだと思うから、弁護士に確認しているわけですからね。
エンゲージメントレターでの説明、事務所のガイドラインを見せるといった対処が必要かもしれません。
ポリシーではこういった状況に対処する必要があると考えました。
開示が必要な状況を具体的に列挙することは難しく、弁護士各々の判断に任せるという対応にならざるを得ないとは思いますが、AIを使用する以上そのリスクを適切に認識し、時にはクライアントにその旨を伝える必要がありうること、状況に応じてクライアントにAIの使用状況を公開することを検討すべきといった内容を定めておくことになろうかと思います。
Meritorious Claims and Contentions and Candor toward the Tribunal(訴訟手続との関係)
弁護士が従うべき倫理規則は、クライアントとの関係だけでなく裁判所との関係でも重要です。
弁護士は、裁判の迅速性を損なうような行動をすべきではないですし、虚偽の事実に基づく証拠提出や主張をしてはなりません。
想定されるリスクというのは、まさにAIが作成した誤った情報に基づく回答を訴訟手続に使用してしまうということですね。
実際に、アメリカでAIが架空の判例を作り出し、それが裁判所に証拠として提出されたという事件も起きました。
一度事件になっている以上、裁判所のそのリスクを認識していますから、すでにいくつかの裁判所でAIの使用に関する裁判所命令が出されています。
具体的には、AIを使用して作成された証拠や書類はその旨を明記すること、その正確性を精査したことの証明を付すこと、及び重要なクライアント情報を開示していないことを書面上で宣言することといった内容があります。
このような命令を出している裁判所は一部ではありますが、今後増えていくでしょうし、AIを使用した証拠や書類が提出した際には必ず問題になるといっていいでしょう。
弁護士としては、そのような裁判所命令があることを認識し、遵守する必要があります。倫理問題あるあるですが、裁判所の命令に反していなくても倫理的な問題が生じる可能性はあるので、裁判所命令のみならず倫理規則についても十分に理解しておく必要があることを強調すべきでしょう。
Supervisory Responsibilities(監督者責任)
弁護士には、監督者としての責任が生じる場合もあります。
パートナーなど事務所を経営する立場にあれば、事務所内の弁護士が倫理規則を遵守するよう監督する義務があります。
そうでない弁護士でも、パラリーガル等非弁護士と協力して業務を行う場合には彼らに対する監督義務を行うこともあるでしょう。
これについてはどのようなリスクがあるかというよりも、事務所内のスタッフ(弁護士及び非弁護士)が倫理規則を遵守する体制をしっかり整えることが必要でしょう。
AIの使用について内部規則を作るだけでなく、それをスタッフが遵守するような施策を取らなければいけません。
パッと思いつくのは研修を行うことでしょうか。
弁護士倫理とAIの使用についての内部ないし外部研修を企画し、AIの使用に伴うリスクを理解してもらうといったことですね。
また、弁護士が外部業者に業務を一部委託するという可能性も業界団体であるABAのオピニオンで触れられていました。
業務委託する場合は、クライアント情報の管理について徹底してもらう必要があります。
彼らが勝手にクライアント情報をAIにインプットしてしまったら大問題ですからね。
ポリシーでも、AIの使用が許容される場面をできる限り明確にすべきでしょう。
そして、AIを使用する場合、その監督責任が誰にあるのか明確にすることも大切です。
パートナーの場合もあるでしょうし、チームの構成によってはアソシエイトが担当することも考えられます。
研修への参加を義務付けるといったことも有効かと思います。
Fees(報酬)
クライアントに請求する報酬・費用との関係でもAIの使用は問題となります。
まず報酬面についてですが、報酬の合理性と公平性が大事です。
弁護士が重複した料金を請求したり、報酬を水増ししたら大問題でしょう。
AIを使用して業務を行った場合、その時間をどこまで業務時間に含めることができるかは問題となります。
AIの使用によって作業時間が拡大した場合、その時間は報酬に含めることができるのでしょうか。
クライアントからすれば、報酬の算定に不透明性があることは問題です。
ポリシーでは、AIが使用された場合どのように報酬を算定し、どのようにその根拠を開示するのかといったことを定めておく必要があると考えます。
次にコストについて。
業務に生じたコストをクライアントに請求できることはもちろんですが、それが正当化されるのはクライアントの業務の関係で生じたコストのみです。
AIを使用して業務時間を短縮したにもかかわらず、弁護士が手作業でやったことにしてクライアントに請求したら?
倫理的に問題があるだけでなく、弁護士や事務所の信頼を損なうことになるでしょう。
また、AIの使用方法について学習した時間を特定のクライアントに対して請求すべきでないでしょうから、そういった時間はコストとして含めないようにする必要があります。
ただし、クライアントから指定されたAIサービスを業務に使用するといった場面も考えられます。
そのような場合は、サービスの理解に費やした時間を請求することも合理的と言える可能性があります。
いずれにせよ、AIの使用に関する請求方法についてはクライアントとの間であらかじめきちんと決めておくようなプラクティスを徹底させる必要があります。
Advertising(広告規制)
これは書くべきか迷いましたが、文字数が余っていたので書くことにしました。
フロリダ州のオピニオンで触れられていた広告規制についてです。
こちらのオピニオンでは、弁護士がAIチャットボットを広告や顧客の誘引に使用する場合、その事実を見込み客に伝えるべきと述べています。
また、AIの使用について過剰に宣伝すべきではなく、客観的に検証可能な範囲についてのみ主張するべきだと述べています。
広告規制に関して、まず提供する法的サービスについて誤った情報を述べることは禁止されています。
AIサービスを使用して広告を作成した場合、提供されるサービスについて意図せずに虚偽・誇張された表現・情報が使用される可能性があります。
AIが広告を作成した場合には弁護士がその内容を精査すべきですし、広告内に免責事項を含めるべきでしょう。
また、Model Ruleは広告の作成に関する透明性を求めています。
誰が広告を作成し、誰が費用を払ったのか明確にしろということですね。
広告がAIを使用して作成されたことを明示していなかったら問題となり得ます。
こちらも、弁護士が適用ある規定に照らして内容を精査したり、第三者が広告を作成していることを免責事項として述べておく必要があるでしょう。
最後に、これはMPREとの関係で大事なことなのですが、弁護士は特定の状況下でない限り顧客に直接勧誘することはできません。
AIチャットボットを使用して不特定多数の潜在顧客にメッセージを送ってしまうと、この規則に反する恐れがあります。
AIシステムを使用する場合は顧客からの問い合わせに対応する受動的な使用に止めるべきであり、許容される場合でない限りAIを直接勧誘に使用することはすべきでないでしょう。
ウォーターゲート事件と法曹倫理
ざっと書きましたが、以上が私の書いた論文の大まかな内容です。
どうでしょうか?
これを英語で書くのは非常に辛かったです。
私の知識不足もありどの項目もあまり深く踏み込むことができず、これで問いに答えたことになってるのかという思いもあります。
また、実際にポリシーを書いたことはないですし、現場目線に欠けているという声もあるかもしれません。
そもそも、アメリカでここまで法曹倫理が重視されるようになったのは、ウォーターゲート事件がきっかけです。
ウォーターゲート事件は、民主党本部で起きたCIA工作員による盗聴侵入事件ですが、この事件には弁護士が深く関与していたり、大統領が司法妨害や証拠隠滅を画策するなどして大きな問題に発展し、最終的に当時のニクソン大統領は辞任に追い込まれました。
アメリカで大統領が辞任したのはニクソンが初めてです。
- この事件では、弁護士たちが事件に関与した共和党関係者の不法侵入や盗聴に事実を隠すため、証拠隠滅や虚偽証言の準備に加担しました。
- このような隠蔽工作だけでなく、侵入者たちの口止め料や弁護費用の資金ルートに関与するなど贈賄資金の管理もしています。
- さらにニクソン政権の関係者に対して虚偽の法的助言をしたほか、裁判所への重要な情報の提供を阻止するなどしたとされています。
結果的にこの事件によって司法制度の信頼は大きく損なわれることとなりました。

弁護士が不正の防波堤ではなく加担者となったことで、法曹界は重大な自己反省と改革を余儀なくされます。
その結果、ABA(アメリカ法曹協会)は現在の倫理規範であるModel Rules of Professional Conductを採択します。
- Model Rulesでは、弁護士の職務遂行の透明性、誠実さ、クライアントとの適切な関係がより厳しく求められるようになりました。
- ロースクールとの関係では、PRの授業が必修科目となりました。
実際に、僕たちの授業でも初回の授業でこの事件がいかに法曹界に大きな影響を及ぼしたかが語られました。
したがって、PRの授業というのは法曹界が失った信頼を取り戻すためにやっているとても大事な取り組みということになります。
教授たちも現役の弁護士であり、熱が入るのは当然でしょう。
日本では、ここまで法曹倫理教育が徹底しているだろうか。
受験生時代に法曹倫理は一通り勉強し、弁護士会でも定期的に倫理研修が行われていますが、弁護士一人一人にどれだけ倫理意識があるかはよくわかりません。
日本ではウォーターゲート事件のような重大な事件はこれまでないと認識していますが、今後もこのような事件なく、社会からの信頼を集める法曹界であるために一人一人が努力していく必要があると改めて思った論文執筆でした。
それにしても、3,000wordsは辛いです。
これから留学する方も色々と論文を書く機会があると思いますが、あまり気負わずに頑張ってください。

この記事が気に入ったら
フォローをお願いします!
プロフィール

Ryo
こんにちは、Ryoといいます。 このブログは留学記です。 このブログのテーマは、『日本にいたらできないようなチャレンジをする』こと。 留学で経験したこと、考えたこと、感じたことをレポートします。 このブログの目的は3つあります。 人脈を増やすこと 学んだことをアウトプットすること ブログを継続すること このブログが少しでも皆様の役に立ってくれたら幸いです。