AI=阿保いい加減にせい!なのか?(2)
いろいろなご意見をいただきました。
前回、論文の審査をAIにさせる是非などについて、『識者の方々にも尋ねてみました。改めてお話し申し上げたいと思います。』と申し上げました。大変有難いことに、お答えいただくことがございましたので、いくつかそのままご紹介することに致します。
(AI=阿保いい加減にせい!なのか?(2))
https://mbp-japan.com/hyogo/banyohkagaku/column/5202786/
一番面白いところをAIに頼る気持ちは全くない
AIで入試問題作成は可能になるでしょうね。
論文作成は、得られたデータをどのように解釈し、どのような発想に繋げていくかが
研究者として一番面白いところだと思っています。読者が、「こんなアプローチがあったのか」と感動できるような
論文を常に書きたいと思っていますので、私に限っては一番面白いところをAIに頼る気持ちは全くないですし、
楽しみがなくなりますね。それくらい一つ一つの論文に思い入れがあります。まあAIを参考にするのはありかもしれませんが。
これはもう「使わない」というチョイスは世の中的にあり得ない
AIの件、これはもう「使わない」というチョイスは世の中的にあり得ないので、学生にもどんどん使うように言っています。AI使いまくっている海外の学生に負けてもらったら困りますので。
「AIを使っているから考えない学生が増える」、というのはある側面ではそうかもしれません。ただ、AIを使うにあたって、プロンプトの作り方とか、これまで考えていなかったことを考える必要は出てくるので、それはプラスの側面もある気がしています。
翻訳ソフトなども同じで、今や英語の論文を読むのに英和辞典を引く学生は一人もいません。論文のPDFファイルごと翻訳してくれるので、学生はその翻訳語後の日本語を読んでいます(なので雑誌会をやると謎の和訳が頻繁に出てきます(笑))。また。論文を書く方法論も完全に変わってしまいました。いままでは英語で書いて修正して・・・のような感じでしたが、もう今は日本語でしっかり論文を書いたら翻訳ソフトに投げるだけで、一瞬で立派な英文論文になります。むしろ翻訳前の「日本語能力が問われる」、と言った方がよいでしょう。学生にもよく言いますが、これからは「目の前の外人をその場で説得しなければならない人」以外に英会話能力は不要な時代になると思っています。翻訳の速度と精度が年々上がってきているので、メールベースのやりとりに英語力はもう不要になっています。
すごい時代になってきたというのをひしひしを感じています。
倫理規定よりも科学技術が先行する?
非常勤での講義に「技術者倫理」と「科学者倫理」がありますが、これらの講義の中で「倫理規定よりも科学技術が先行する」を事例を出して紹介しています。
現在のAIはまさしくこれではないかと思います。最近、朝日新聞と日経新聞が裁判をおこしました。以下参照ください。
色々な現場で問題が起こっていますが、社会がどのように取り入れていくのか興味深いところです。少し時間がかかるかと思いますが。
(朝日新聞社と日本経済新聞社が生成AI事業者の米国Perplexityを著作権侵害で共同提訴)
https://news.yahoo.co.jp/articles/fc6cc46bfaf0e9bf39482b81e859881816d6a856
「自分の表現で他者に理解・納得させる力」が必要となる
まず、入試にかかわることについてですが、私も、既にご意見されている方とほとんど同じように考えています。
入試はとてもデリケートな話題ですので、お返事やご意見が少なかったのはやむを得ないように思います。
入試関係のことについては、「何も言えねぇ」というのが正直なところでしょうか(メールだと特にそうですね)。
次に、「自らで考える力が弱くなってきている」というのも、若い方々と接する中で私も強く感じています。
さらに加えると、「研究において新しい領域に踏み込んだり、真の意味で開拓するのを好まない人が増えている」と思います。
いわゆる「安全志向」といえるかもしれません。
現状のAIに問い合わせたときに出される答えが、世に溢れている情報の平均なのでしょうから、AIに頼るは利便の点だけでなく、安全志向の表れのひとつですね。
しかし実際には、今やだれでも手に入るありきたりの情報に従って仕事や研究をしても、画期的なことにはつながりそうにないので、とても「安全」とは思えないのですが。。。
AIがさらに進化して次の段階に入り、新機軸を見つけ出したり、提案したりする時代が来ると思います。
そうなったとき、人間がしている仕事や研究の価値が問い直されることになりますね。
そんな時代にこそ、文章力やプレゼン力を含めた、「自分の表現で他者に理解・納得させる力」が必要となると考えています。
さて、このような状況が「危うい」と心配する気持ちは私にもありますが、逆に楽観的であったりもします。
年代にかかわらず(若い人を含め)、少数ではありますが「逆張り」をして、多数派とは違うところに力を注ぐ人がいるからです。
たんなる変わり者の場合もありますが、他の人には代えがたい人材となることもしばしばです。
そんな人材を潰してしまわないようにしたいですね(このほうが問題かも)。
悪意を持てば情報操作が可能
A Iについて、否定はしませんが、あくまでもツールと思います。近年、気になっている
のことはネットやAIで得られる情報の信憑性をどのように判断する能力を構築すること
です。ネット上では、バイアスがかけられているのでは?と推測できる内容の記事も氾濫
しております。これは、悪意を持てば情報操作が可能であることを意味しています。
先行の知見との関わりを見たりするのには良いのでは?
AIを使用しての論文の査読についてですが、先行の知見との関わりを見たりするのにはよろしいと思います。以前、査読をした某国からの投稿論文をリジェクトしたところ、なんと全く同じ論文が同じ雑誌に投稿され、また私のところに審査が回ってきたことがありました。変更しているのは投稿者の名前の順序だけ。かなり悪質です。当然、即リジェクト。論文を投稿するということの意味や重みがわかっていないのかと思いました。AIにてこの様な投稿をカットするのには有効かと思います。
ただ、この頃は別刷のやり取りもなくなり、甚だしい場合には紙への印刷なしで、電子媒体だけという論文もあるみたいで、なんとも合理的というか非人間的というか。効率や成果だけとなっている様で残念に思っています。一度、成果を論文としてまとめるということの意味をみんなで考え直してみる必要がある様に思うのですが、今はそんな余裕もないのかも知れませんね。殺伐としていると感じるのは私だけでしょうか。
なお、査読を数知れずやりましたが、いつも、この投稿された論文内容の情報を認めるか認めないかは、ささやかかも知れないが、科学の進歩に貢献している重要な場面と思い、誇りを持って実施しておりました。
頭の使い方を間違えているのでは?
英語の書籍の輪読を学生さんとやっているのですが、あるとき、学生さんが日本語訳をよどみなく喋っていました。
良く見ると、PCのモニーターを覗きながら、読んでいるようでした。
聞くと、何というサイトか覚えてませんが、英文をインプットして日本語に訳させ、それを読んでいただけでした。
読んでいるだけで、どういう意味なのか、どういうことが書かれているのか、あまり考えていなさそうでもありました。
便利にはなったのかもしれませんが、頭の使い方が違いますね。
学生のレポートでは、たぶん生成AIを使ってるんだろうなというのもあるようです。
(基本的には、禁止されてるのですが)
全てお任せではダメ!
以上、様々なご意見がございましたが、いかがだったでしょうか?
ほぼ全てに共通していることは、AIは作業過程における道具に過ぎず、『少なくとも最後の仕上げは自分の頭でやらねばならない』ということでしょうか?




