共有
  • 記事へのコメント52

    • 注目コメント
    • 新着コメント
    その他
    inulab
    inulab 時間あっても片方しか救わなかった件とジレンマは別件だし人間でも金髪ツインテールとデブだったら時間あってもデブは助けない。

    2014/09/26 リンク

    その他
    Ohgyoku
    Ohgyoku 落ちそうなロボットの進路妨害することだけハードコーディングしたプログラムを研究するわけねーだろ。ロボットの方がよっぽど物考えてんじゃねーの。

    2014/09/26 リンク

    その他
    ikd18
    ikd18 ロボットの問題というか、優先基準をプログラミングする側が、どうするかという課題。場合によっては「人間だったらそうしなかった」判断になることもあるだろう。

    2014/09/26 リンク

    その他
    oukayuka
    oukayuka ロボットにサンデル先生の講義を受けさせればおk

    2014/09/26 リンク

    その他
    osnq
    osnq 実装通りに動いているだけでは・・・。これが学習の結果だったら面白いけど。

    2014/09/26 リンク

    その他
    alpinix
    alpinix 単に教えてない、という話で、トリアージするステップをはさめば以上終わりな気がする。

    2014/09/26 リンク

    その他
    jet22
    jet22 いつか人工知能が判断するスキームに入ったらどうなるんだろ 世話していたお婆さんとその孫だったら目からオイル流しながら孫を救うのか

    2014/09/26 リンク

    その他
    skytee
    skytee どうなの?

    2014/09/26 リンク

    その他
    te2u
    te2u ロボットの行動は設計、実装による。ジレンマに陥るというのはバグ、もしくは設計されていないパターンにはまっている。それを決定するのは人。

    2014/09/26 リンク

    その他
    takumikabu
    takumikabu 艦攻より艦戦を多く積めばいい

    2014/09/26 リンク

    その他
    yamaimo_san
    yamaimo_san 人間が決めたアルゴリズムしだいなのに、勝手に擬人化してんじゃねーよ

    2014/09/26 リンク

    その他
    hiby
    hiby if文が足りなかった的な

    2014/09/26 リンク

    その他
    rti7743
    rti7743 全員は守れないので、誰を守るべきかランキングアルゴリズムで、人間の価値を機械が数値化するはず。お前らの価値はいくつだと思う?

    2014/09/26 リンク

    その他
    datemakio
    datemakio if文一個で解決するわ

    2014/09/26 リンク

    その他
    junpeso
    junpeso そう組んだだけだろ

    2014/09/26 リンク

    その他
    abababababababa
    abababababababa 1人救出したところで、プログラムが1ルーチン終了しただけに見えるw

    2014/09/26 リンク

    その他
    kurokzhr
    kurokzhr 哲学の世界だな。“@hatebu: 1台では同時に2人救えない。判断を迫られたロボットの行動とは - IRORIO(イロリオ) (62 users) 20件のコメント http://t.co/ygsjK68VSv

    2014/09/26 リンク

    その他
    k2wanko
    k2wanko 優先度つけとけば 問題ない内容だった。

    2014/09/26 リンク

    その他
    mamezou_plus2
    mamezou_plus2 雪風的には最優先命令を実行した後に、次の優先命令を実行するのだろうけど。ここら辺は学習効果もあるし。ただ製造会社によってその優先順位が変わったり、矛盾による回避を仕込む可能性も…

    2014/09/26 リンク

    その他
    noodlemaster
    noodlemaster AIが発達すればするほど悩むんじゃないかな。使用者が初期設定で救済者のプライオリティ付けをするんだろうね

    2014/09/26 リンク

    その他
    infobloga
    infobloga 記事の通りだと、プログラムを組んだ段階で答えが分かっているので、単に思考実験をしたのと同じ。実験として意味を持たない。

    2014/09/26 リンク

    その他
    okemos
    okemos 論文ではちゃんとアシモフのI,Robotがリファーされてるんだな。そりゃどうしたってつい思い出すもんな(笑)

    2014/09/26 リンク

    その他
    hiroki83
    hiroki83 え、これはアルゴリズムのバグでしょ?2人いる想定のコードになってなかったんでしょ。ロボットの問題じゃないよ。

    2014/09/26 リンク

    その他
    deep_one
    deep_one 全く無意味。まず、機械的な処理能力が足りてないだけ。その次に、その不足に対処する指示が書かれてないだけ。/現在のレベルのロボットは判断しない。処理するだけ。

    2014/09/26 リンク

    その他
    yahiroyoshikazu2000
    yahiroyoshikazu2000 ただ単にプログラムの問題なのでは……。

    2014/09/26 リンク

    その他
    kisiritooru
    kisiritooru そこで「トリアージ・タッグ・プログラミング・プロジェクト」(通称T2P2)が必要なんですよ。(そんなのないです)

    2014/09/26 リンク

    その他
    Sediment
    Sediment お前にサンが救えるか小僧等、意味不明の供述をしており

    2014/09/26 リンク

    その他
    s-tomo
    s-tomo ロボットAは仲間を呼んだ!!(結果は皆さんが考えてください)

    2014/09/26 リンク

    その他
    tettekete37564
    tettekete37564 “ロボットがジレンマに陥る”<無限ループやコアダンプではなく"ジレンマに陥る"って凄い人工知能じゃない?

    2014/09/26 リンク

    その他
    pilpilpil
    pilpilpil さらに救う行動を阻止するロボットが現れたら破壊するのかな。

    2014/09/26 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    1台では同時に2人救えない。判断を迫られたロボットの行動とは - IRORIO(イロリオ)

    自動で運転する車が公道を走る日も、秒読み段階に入ってきた。すでにカリフォルニアでは、自動運転のテ...

    ブックマークしたユーザー

    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - 学び

    いま人気の記事 - 学びをもっと読む

    新着記事 - 学び

    新着記事 - 学びをもっと読む

    同時期にブックマークされた記事